全2796文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 米NVIDIA社は2021年4月にオンラインで開催した年次イベント「GTC 2021」で、機械学習に向けたフレームワークやアプリ、ならびに半導体の新製品を発表した。加えて、さまざまな場所から複数人で共同作業を行えるサービス基盤をアピール。同基盤は映像制作だけでなく、ロボットの動作や自動運転などの物理シミュレーションにも利用できる。いずれも新型コロナウイルスの拡大を機に需要が増えた用途に適したものである。

 一連の発表の中で目玉となったのが、NVIDIA社初となるサーバー向けMPU(CPU)「Grace(グレース)」だ(図1)。英Arm社のサーバー向けCPUコアの次世代品を採用し、消費電力が小さいメモリーを組み合わせることで、機械学習のトレーニング(学習)を高いエネルギー効率で実施できる点をウリにする。

(a)GraceやGPUなどを実装したボード(Graceモジュール)
[画像のクリックで拡大表示]
(b)機械学習モデルの規模の変遷
[画像のクリックで拡大表示]
(c)Grace採用のCSCSのスパコン
[画像のクリックで拡大表示]
図1 大規模モデルの学習向けに独自CPUを開発
NVIDIA社は、同社初となるサーバー用CPU「Grace」を開発した(a)。例えば、自然言語処理(NLP)やレコメンドシステムなどで利用される膨大なパラメータ数の機械学習モデルの学習用途に向ける。機械学習モデルの規模は拡大傾向にあり、特にNLPモデルではパラメータ数は約2.5カ月ごとに約2倍になっているという。このペースで増加すれば、23年ごろまでに機械学習のパラメータ数は100兆に達するとみている(b)。Grace採用のスパコンをHPE社が開発中で、Swiss National Supercomputing Centre(CSCS)が採用する予定だ(c)。(画像:(a)と(c)はNVIDIA社、(b)はGTC 2021の基調講演スライドを基に本誌が作成)

 サーバー向けCPUでは、米Intel社の「Xeon」や米IBM社の「POWER」など、競合がひしめく。Armベースのサーバー向けCPUを手掛ける企業もいる。こうした競合との差異化や共存を図るために、Graceは今のところ膨大なパラメーター数の機械学習モデルを利用する自然言語処理(NLP)やレコメンドシステムといった用途に重きを置く。GTC 2021の基調講演でNVIDIA社 創業者 兼 CEOのJensen Huang氏が強調したのが、NLPにおけるGraceの優位性だ。