PR

 GPU最大手の米NVIDIA社は2017年5月10日(米国時間)、同社の次世代GPUアーキテクチャ―「Volta」に基づく新しいプロセッサー「NVIDIA Tesla V100 data center GPU」を発表した。現行の「Pascal」世代の製品と比べて、深層学習(ディープラーニング)の学習処理を12倍、推論処理を6倍に高速化できるという。NVIDIA社が開催したイベント「GPU Technology Conference(GTC) 2017」において、同社 Founder and CEOであるJensen Huang氏が基調講演の中で披露した。

 次世代GPUを発表するにあたり、Huang氏は深層学習モデルの規模がここ数年で桁外れに拡大していることに言及。2015年に米Microsoft Researchが発表したモデル「ResNet」では、パラメーターの数が約6000万個だったが、2016年の中国Baidu社の音声認識技術「Deep Speech 2」では約3億個、2017年の米Google社の機械翻訳技術「Neural Machine Translation」では約87億個と飛躍的に増加しているという。このトレンドに対応するため、高い演算能力を持つハードウエアの必要性を説いた。

NVIDIA社 Founder and CEOのJensen Huang氏が、次世代GPUアーキテクチャー「Volta」に基づく新製品「Tesla V100」を発表した。
NVIDIA社 Founder and CEOのJensen Huang氏が、次世代GPUアーキテクチャー「Volta」に基づく新製品「Tesla V100」を発表した。
[画像のクリックで拡大表示]

 Volta世代の第1製品となるTesla V100では、64ビットの浮動小数点演算を7.5TFLOPSで、32ビットの演算を15TFLOPSで実行可能となる。特に、深層学習の場合は最大120TFLOPSの演算が可能だという。これを実現するのが、新たに開発した「Tensorコア」と呼ぶ演算コアだ。Tensorコアは、16ビットと32ビットの演算を組み合わせて4×4の行列を積和演算処理する。深層学習向けに処理を最適化することで、Pascal世代よりも大幅な高速化を実現した。Tesla V100のダイサイズは815平方mmで、製造には台湾TSMC社の12nm FinFETプロセスを利用した(関連記事:「NVIDIAの深層学習GPU『Volta』、TSMCの12nmで量産か」)。

Tesla V100に搭載したTensorコアのイメージ。従来のPascal世代のGPUと比較して、学習処理を12倍高速化する。
Tesla V100に搭載したTensorコアのイメージ。従来のPascal世代のGPUと比較して、学習処理を12倍高速化する。
[画像のクリックで拡大表示]

 基調講演でHuang氏は、これまでPascal世代のGPUを搭載していたサーバー用スパコン「DGX-1」へのTesla V100の採用も発表した。新たにTesla V100を8つ搭載するDGX-1は、Pascal世代のGPU「Titan X」で8日を要した演算を8時間で終えられるという。加えて、DGX-1の小型版で個人の利用を想定する「DGX Station」も発表した。価格はDGX-1が14万9千米ドル、DGX Stationが6万9000米ドルで、いずれも発表と同時に予約受付を開始した。2017年第3四半期の出荷を予定する。