全6433文字
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 大規模なディープニューラルネット(DNN)の学習や推論を大幅に高速化できる新たな武器が登場した。深層学習(ディープラーニング)などの高速化に向く独自のアクセラレータチップ「IPU(intelligent processing unit)」を開発する英Graphcore社が、2021年4月に日本法人を設立。同チップを搭載したサーバー機、クラウドサービスなどの事業を国内で本格化する(図1(a))。

(a)「IPU-M2000」
[画像のクリックで拡大表示]
図1 IPUを国内市場に投入
(a)は英Graphcore社が日本市場での販売を開始したサーバー「IPU-M2000」。同社の第2世代のIPUチップを搭載する。IPUチップは深層学習や機械学習の高速実行に特化したアクセラレータで、現在これらの用途で標準的に使われるGPUと比べて異なる特徴を備えている(次ページのb)。(写真:Graphcore社)

 事業の核になる同社の第2世代IPUチップ「Colossus Mk2 GC200」の最大の売り物は、群を抜く性能の高さである。システム構成や価格などの違いから1対1の比較は難しいが、同社が公表する性能の数値1)は、深層学習分野で業界標準といえる米NVIDIA社の最新GPU「A100」の公表値2)を上回る場合がある(図2注1)

 Graphcore社によれば、GC200の前の世代に当たるIPU「GC2」とA100の前世代GPU「V100」の比較では、医療画像の分類モデルの学習で、前者が後者の12倍に相当する処理性能(スループット)を発揮した例があるという注2)。用途や条件次第では、IPUを用いてGPUを凌ぐ高速化を達成できそうだ。