磁界結合やデータフロー型も
他社にない独自技術を活用するのが、Deep Insightsや米Wave Computing社だ。前者は、磁界結合を利用した独自インターフェース「TCI(Thru Chip Interface)」で、チップ間やDRAMとの間を超高速でつなぐ。DRAMとのデータ転送速度は100Tバイト/秒に達する見込みとする。さらに、ノード間には光通信を導入する。1チップに100万コアを集積するとの目標も掲げる。
Wave Computing社は、データの移動に応じて演算回路が動作する、いわゆるデータフロー型のプロセッサーを開発中だ。非同期型の論理回路を用いて、最大10GHz、平均6.7GHzの周波数相当で動作するという1)、注6)。
1)Gwennap, L., “Wave Accelerates Deep Learning, ”Microprocessor Report, Oct.3 2016.
サーバー機の汎用的な演算アクセラレーターとしてFPGAを利用するための技術開発が進んでいる。米Microsoft社は、FPGAをデータセンターで活用するための新たなアーキテクチャー「Configurable Cloud」を2016年10月に発表した1)。その有力な用途の1つと見るのが、DNNの推論処理だ注B-1)。
同社は2014年にFPGAをアクセラレーターに使う技術「Catapult」を発表済みである2)。今回の発表では、ハードウエアの構成を一新。FPGA をサーバー機のネットワークカードとそれらがつながるスイッチの間に挿入し、なおかつPCI Expressでプロセッサーともつなぐ形態を採用した。これによって、FPGAを演算のアクセラレーターとネットワークのアクセラレーターの両方に利用でき、なおかつネットワーク上に分散するFPGA を、さまざまなサーバーから柔軟に利用可能になるという。同社のデータセンターに順次導入していく計画だ。
深層学習チップ、FPGA、GPUなどを混在
Microsoft社がこうした研究に取り組むのは、ムーアの法則が失速した後で性能を高める1手段と位置付けているからである。FPGAに限らず、いずれは特定の処理に向く専用回路を複数組み合わせて性能を高める手段が広がる可能性がある。
こうした将来を想定するのが、新エネルギー・産業技術総合開発機構(NEDO)の「省電力AIエンジンと異種エンジン統合クラウドによる人工知能プラットフォーム」プロジェクトである。さまざまな専用ハードウエアを統一的に扱えるサーバー機のハードウエアとソフトウエアのアーキテクチャーを探る(図B-1)。同プロジェクトの一環でディジタルメディアプロフェッショナル(DMP)が開発するDNNの推論や学習用の専用チップに加え、FPGAやメモリー、将来登場する量子コンピューター、脳型チップなどの資源を自由に組み合わせて使うことを想定。データの流れに応じてこれらを最適に接続することで、OSなどの無駄な処理を介在させずに高速動作を可能にするという。プロジェクトの最終年度(2020年度)までに試作機を開発する予定である。
1)Caulfield, A. M. etal. ,“ACloud-Scale Acceleration
Architecture, ”https://www.microsoft.com/en-us/research/wp-content/uploads/2016/10/Cloud-Scale-Acceleration-Architecture.pdf
2)進藤, 「ビッグデータに切り込む第3のコンピューター」, 『日経エレクトロニクス』, 2014年11月10日号, pp.27─45.