全2144文字
PR

 米Meta(メタ、旧Facebook)は米国時間2023年5月18日、独自のAI(人工知能)用チップを発表した。かねて同社を巡ってはAI用チップの独自開発の観測があり、米一部メディアが開発中止を報じていたものの、同社はこれまで沈黙を保ってきた経緯がある。米Google(グーグル)や米Amazon.com(アマゾン・ドット・コム)などが既に独自チップを実用化しており、生成AIのブームは、その性能を最大限に発揮できる半導体開発競争に飛び火している。

米Metaが発表した独自AIチップ「MTIA」
米Metaが発表した独自AIチップ「MTIA」
(出所:米Meta)
[画像のクリックで拡大表示]

 同社が開いたAIインフラ技術に関するカンファレンスで、独自チップ「MTIA(Meta Training and Inference Accelerator)」の詳細を発表した。実用化の時期は示さなかった。

 ベースとなるのは台湾TSMCの7nmプロセス技術で、熱設計電力(TDP)は25Wだ。64個のプロセッサーをグリッド状に配置。その周囲に合計128MBのSRAMを置く。DRAMはオフチップの64GBだ。演算処理性能は、FP16(半精度浮動小数点演算)による学習で51.2T(テラ)FLOPS、INT8(8ビット整数演算)による推論で102.4TOPSという。

 Metaが実際に運用している深層学習モデルで推論のパフォーマンスをテストしたところ、同社が「低い複雑度」と定義したモデルの計算では、米NVIDIA(エヌビディア)のGPU(画像処理半導体)と比較して消費電力当たり約3倍の性能を発揮した。

 一方、複雑度が高いモデルになるとMTIAの性能はエヌビディアのGPUの半分程度となった。カンファレンスに登壇したメタのローマン・レビンスタイン・エンジニアリングマネジャーは「高い複雑度ではソフトウエアの最適化を実施していない」とし、2023年中に発表予定の論文において最適化したベンチマークテストの結果を盛り込むと言及した。

米Metaが実施したベンチマークテストの結果
米Metaが実施したベンチマークテストの結果
(出所:米Meta)
[画像のクリックで拡大表示]

 MTIAはAIモデルの学習と推論の両方に適用できるよう設計されているが、今回発表したチップは主に推論で利用する。半導体チップファミリーの1つという位置付けで、メタは今後、学習に最適化したチップなどを開発するとみられる。

 メタがAIチップを独自開発する背景には、この数年でAIのモデルサイズが指数関数的に大きくなったことで、GPUでさえ推論の効率が上がらなくなってきたという課題がある。その解決に向け、学習用だけでなく推論用のハードウエアにも急速な進化が求められるようになった。逼迫する需要を背景にCPUから推論用プロセッサーである「NNPI(Neural-Network Processor for Inference)」に切り替えたものの、需要がすぐに能力を上回り、GPUへ軸足を移した。

 しかし、GPUにも課題があった。メタでソフトウエアエンジニアを務めるジョエル・コバーン氏は「GPUは推論を念頭に設計されておらず、ソフトウエアを最適化しても効率が低い。コストがかかり導入するのが難しかった」とMTIA開発の理由を明かした。