全2105文字
PR

 スーパーコンピューターのランキングといえば毎年6月と11月に発表されるTOP500が有名で、先日も日本勢の活躍が話題になった。しかし人工知能(AI)分野では別のスパコンランキングが盛り上がっているのをご存じだろうか。機械学習ベンチマークのMLPerfで、2020年7月末に公開された最新結果では米Google(グーグル)の成績が目立った。

 MLPerfはグーグル、中国百度(バイドゥ)、米ハーバード大学、米スタンフォード大学、米カリフォルニア大学バークレー校の呼びかけで2018年に設けられたMLPerfコンソーシアムが策定する機械学習のベンチマークだ。機械学習の性能を訓練(トレーニング)と推論に分けてそれぞれ計測できるよう複数のタスクが用意されている。そしてトレーニングに関する最新結果が、2020年7月29日(米国時間)に公開された。

 グーグルは翌7月30日(同)、その結果を基に「機械学習の訓練(トレーニング)用では世界最速のスパコンを使ってAI性能の記録を更新した」と発表した。最新のMLPerf Training v0.7には、画像分類、物体認識、機械翻訳、自然言語処理、レコメンデーション、強化学習というタスクに関する8種類のベンチマークがある。グーグルは8種類中の6種類のベンチマークで最高性能を記録したことから、自社のAIスパコンを「世界最速」と主張している。

 グーグルは今回、8種類中4種類のベンチマークにおいて、トレーニングのタスクを30秒以内に終わらせたという。同社によればこれらのタスクは、2015年当時だと3週間以上を費やす必要があったのだという。それから5年がたって、トレーニングに必要な時間は6万分の1にまで短くなった。

演算回数では測れないAIスパコンの性能

 MLPerfが生まれた目的は、様々な企業が開発するAI専用チップの性能を比較することにあった。AI専用チップはCPUやGPUと仕組みが大きく異なるため、単純な演算回数だけで性能を比較するのが難しかったためだ。

 例えば行列演算ユニットが使用する数値の精度。CPUやGPUが搭載する行列演算ユニットは、倍精度(FP64、64ビット)や単精度(FP32、32ビット)、半精度(FP16、16ビット)などIEEEが定める規格の精度を採用している。それに対してグーグルなどが開発するAI専用チップは、IEEEの規格には無い独自の浮動小数点精度を自ら開発して採用している。

 スパコンの世界では1秒当たりの浮動小数点演算の回数を示すFlopsが性能の目安となり、スパコンの京は、まさに1秒間に1京回(10ペタ)の演算ができることが名称にもなっていた。しかしAI専用チップの性能は、単なる演算回数では表せない。