PR

 米NVIDIA(エヌビディア)は、新アーキテクチャー「Ampere」のGPU「A100」のメモリー増強版「A100 80GB」を発表した(ニュースリリース)。2020年5月に発表された最初の「A100 40GB」は合計40Gバイトの3次元DRAM「HBM2」をモジュールパッケージ上に搭載していたが*、新製品は2倍の容量である合計80Gバイトの「HBM2e」に替えた。

「A100 80GB」の概要
「A100 80GB」の概要
NVIDIAのスライド
[画像のクリックで拡大表示]

 A100 80GBはメモリー帯域幅が2Tバイト/秒に広がり、A100 40GBに比べて各種処理の高速実行が可能になった。例えば、材料シミュレーションの「Quantum Espresso」のスループットは1.8倍になったという。同社は、A100 G40を8個搭載したスーパーコンピューター(GPUサーバー)「DGX A100」にも、A100 80GB搭載品を用意した。A100 40GB搭載品からのアップグレードが可能である。

「A100 40GB」と「A100 80GB」の処理性能比較
「A100 40GB」と「A100 80GB」の処理性能比較
NVIDIAの資料から抜粋
[画像のクリックで拡大表示]
「A100 80GB」を8個搭載した「DGX A100」の概要
「A100 80GB」を8個搭載した「DGX A100」の概要
NVIDIAのスライド
[画像のクリックで拡大表示]

 同社は今回、A100シリーズGPUを搭載するAI研究者が手元で使うワークステーション「DGX Station A100」も発表した(ニュースリリース)。DGX Station A100にはGPUの「A100 80GB」または「A100 40GB」を最大で4つ搭載できる。DGX Station A100のCPUは米Advanced Micro Devices(AMD)のサーバー向けMPU「EPYC」(64コア品)。システムメモリーは最大512Gバイト。ストレージはOS向けが最大1.92TバイトのSSD、データキャッシュ向けが最大7.68TバイトのSSDを搭載できる。

「DGX Station A100」の概要
「DGX Station A100」の概要
NVIDIAのスライド
[画像のクリックで拡大表示]
「DGX Station A100」の主な仕様
「DGX Station A100」の主な仕様
NVIDIAのスライド
[画像のクリックで拡大表示]