全3988文字
PR

 米Google Research(グーグルの研究部門)は、数人のエンジニアが数日でICの設計を完了できる手法の確立を目指し、機械学習技術をIC設計に応用する取り組みを進めている。そのための技術を評価結果と共に、ICと電子システムの設計に関する国際イベント「58th Design Automation Conference(DAC 2021)」(2021年12月5~9日にサンフランシスコで開催、12月13日から主要な講演のビデオをインターネット配信)の基調講演で披露した。

登壇したGoogleのJeff Dean氏
登壇したGoogleのJeff Dean氏
(出所:DAC 2021の基調講演ビデオからキャプチャー)
[画像のクリックで拡大表示]

 登壇したのは、GoogleのSenior FellowでGoogle ResearchとGoogle HealthのSVPを務めるJeff Dean氏である。基調講演のタイトルは「The Potential of Machine Learning for Hardware Design」だった。講演の前半で同氏は機械学習技術の進展を説明した。機械学習技術によって、コンピューターの利用方法が変わった。以前は人が作ったプログラムが必須だったが、機械学習技術によりデータがあればプログラミングなしにコンピューターを利用できるようになった。

 ニューラルネットワークなどの機械学習技術はかなり以前からあったが、2010年代から急速に進展した。背景には、有力な機械学習モデルや最適化手法が開発されたことがある。さらに半導体プロセスの微細化でICの処理能力が上がり、学習に多くのデータが使えるようになり、推論に使う学習済みモデルが高度化した。例えば、音声認識の単語認識誤り率は12年には16.0%だったが、2019年には4.0~6.8%に下がった。また、画像認識の認識誤り率は10年には28.2%だったが、15年には人間の誤り率である5%より小さな3.6%になったという。誤り率の低下には、ディープ・ニューラル・ネットワーク技術の実用化が効いたとのことだった。

音声認識技術の向上
音声認識技術の向上
(出所:DAC 2021の基調講演ビデオからキャプチャー)
[画像のクリックで拡大表示]
画像認識技術の向上
画像認識技術の向上
(出所:DAC 2021の基調講演ビデオからキャプチャー)
[画像のクリックで拡大表示]

 続いて、Dean氏はGoogleが開発した深層学習用プロセッサー「TPU:Tensor Processing Unit」を紹介した。現在までに第1世代品から第4世代品までが開発され、Googleの事業で運用されている。第4世代品(TPU v4)のクラスター(ポッド)は、21年の機械学習ベンチマーク「MLPerf」において、ResNet-50の学習を14秒で完了した。15年にResNet-50が発表された際はGPUクラスターを使っていたが、それに比べて学習速度は7500倍以上になるという。Googleは現在、第5世代品(TPU v5)を開発中のようだ。

TPU v4
TPU v4
(出所:DAC 2021の基調講演ビデオからキャプチャー)
[画像のクリックで拡大表示]
TPU v4のポッド(クラスター)
TPU v4のポッド(クラスター)
(出所:DAC 2021の基調講演ビデオからキャプチャー)
[画像のクリックで拡大表示]