米NVIDIA(エヌビディア)は、新アーキテクチャー「Ampere」のGPU「A100」のメモリー増強版「A100 80GB」を発表した(ニュースリリース)。2020年5月に発表された最初の「A100 40GB」は合計40Gバイトの3次元DRAM「HBM2」をモジュールパッケージ上に搭載していたが*、新製品は2倍の容量である合計80Gバイトの「HBM2e」に替えた。
A100 80GBはメモリー帯域幅が2Tバイト/秒に広がり、A100 40GBに比べて各種処理の高速実行が可能になった。例えば、材料シミュレーションの「Quantum Espresso」のスループットは1.8倍になったという。同社は、A100 G40を8個搭載したスーパーコンピューター(GPUサーバー)「DGX A100」にも、A100 80GB搭載品を用意した。A100 40GB搭載品からのアップグレードが可能である。
同社は今回、A100シリーズGPUを搭載するAI研究者が手元で使うワークステーション「DGX Station A100」も発表した(ニュースリリース)。DGX Station A100にはGPUの「A100 80GB」または「A100 40GB」を最大で4つ搭載できる。DGX Station A100のCPUは米Advanced Micro Devices(AMD)のサーバー向けMPU「EPYC」(64コア品)。システムメモリーは最大512Gバイト。ストレージはOS向けが最大1.92TバイトのSSD、データキャッシュ向けが最大7.68TバイトのSSDを搭載できる。