PR

AIチップが台頭、汎用CPU時代の終わり

 2018年12月4日、カナダのモントリオールで開催された深層学習(ディープラーニング)の有力学会「NeurIPS」で新しい「AI(人工知能)チップ」がベールを脱いだ。AIチップはディープラーニングなど機械学習の訓練や推論に特化した半導体チップで、処理速度を大幅に向上できる点が特徴だ。

 英国のスタートアップ、グラフコアが自社開発したAIチップ「Colossus IPU」を搭載したシステム「Rackscale IPU-Pod」の試作機を披露した。演算性能は1ラック当たり16ペタFlopsで、1秒間に実行できる浮動小数点演算の回数は1京6000兆回である。

 理化学研究所のスーパーコンピューター「京」のピーク演算性能は864ラックで11.3ペタFlopsである。グラフコアは浮動小数点演算の精度を明らかにしていないため正確な比較はできないが、Rackscale IPU-Podは1ラックだけで京の1.5倍の性能に達する。しかも最大32ラック構成にした場合は0.5エクサ(500ペタ)Flopsを実現できるという。

VCマネーが流れ込む

 グラフコアは2018年12月に実施した資金調達により推定企業評価額が10億ドル(約1130億円)を突破し「ユニコーン」入りを果たしたとされる。ベンチャーキャピタル(VC)から巨額の資金を調達したAIチップのスタートアップが世界には45社存在し、2017年の調達資金の総額は15億ドル(約1700億円)に達するともいわれる。プロセッサーの設計や開発には数年の期間がかかるため、2019年から2020年にかけて様々なAIチップが続々と市場に投入されるだろう。

 米IT大手も動いている。既に2016年の段階でAIチップ「TPU」を公表しているグーグルは2019年に3代目TPUのクラウドサービスを本格的に開始。エッジデバイスに向けた推論専用の「Edge TPU」の販売も始める。アマゾン・ウェブ・サービスは2019年に独自開発した推論専用のAIチップ「AWS Inferentia」が利用できるクラウドサービスを開始する。

図 AIチップに参入する米グーグルと米アマゾン・ウェブ・サービス
図 AIチップに参入する米グーグルと米アマゾン・ウェブ・サービス
大手クラウド事業者がバトルを加速。米グーグルによる「TPU v3」の発表風景
[画像のクリックで拡大表示]
米アマゾン・ウェブ・サービスによる「AWS Inferentia」の発表風景
米アマゾン・ウェブ・サービスによる「AWS Inferentia」の発表風景
[画像のクリックで拡大表示]

 RISCプロセッサーを考案したコンピューター科学の権威、ジョン・ヘネシー氏とデイビッド・パターソン氏の2人は近年、AIなど特定の用途に特化したプロセッサー「ドメイン特化アーキテクチャー(DSA)」がCPUに替わって主役になると積極的に主張している。汎用的なCPUの時代は終わり、DSAの時代がやってくる変換点を迎えている。