全3194文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 米NVIDIA社は2022年3月の年次イベント「GTC」において、GPUの新アーキテクチャを発表し、採用GPUや同GPUによるサーバー製品などを明らかにした。加えて、ロボット開発基盤の機能拡張や、同基盤を利用するシミュレーション環境の整備を発表するなど、ロボティクス事業における強化策を次々と発表した。

 NVIDIA社は新アーキテクチャ「Hopper」を採用したGPU「H100」を2022年第3四半期にリリースする(図1)。前世代の「Ampere」アーキテクチャのGPU「A100」に比べて、機械学習モデルの学習や推論とAI処理を高速にした。例えば大規模な自然言語処理(NLP)モデルによる推論処理では、同社と米Microsoft社が共同で開発したパラメータ数が5300億の言語モデル「Megatron 530B」のチャットボットをH100を適用したクラスタで動作させた場合、A100に比べて最大30倍高速にできるとする。学習も速い。例えば、パラメータ数が3950億の機械学習モデルを、混合エキスパート(Mixture-of-Experts: MoE)で学習させた場合、A100利用のクラスタに比べて最大9倍に高速化できるという。これにより、数週間かかっていたトレーニング期間を数日に短縮可能とする。