全5514文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 2022年2月、半導体のオリンピックとも呼ばれる同分野トップクラスの国際会議「ISSCC 2022」で、東京工業大学が異色のDNN(ディープニューラルネット)アクセラレータを発表した1)。最先端の製造プロセスである5nmと比べて何世代も前の40nmプロセスを使いながら、消費電力あたりの処理性能を同等以上に高めることができる(図1(a))。

 しかも、内蔵するメモリが8Mビット程度であるにも関わらず、外部メモリへのアクセスは必要最小限で済む。画像分類用CNNのResNet-50を実行した場合、推論対象の画像データとモデルのパラメータを読み込むほかは、結果が得られるまで外部へのアクセスは必要ない(図1(b))。同大の劉載勲准教授、本村真人教授らのグループが開発した。

 通常のアクセラレータでは、推論の途中で外部メモリに中間の結果などのデータを読み書きすることが多い。相対的に大きい電力を費やす処理にもかかわらず、上述のチップの性能はこの操作を考慮していないため、そこまで含めるとさらに高い効率を実現できる。