人工知能(AI)技術、具体的には物体認識などをするCNN(Convolutional Neural Network)の大幅な省電力化が進んでいる。米Apple(アップル)はCNNの超省電力化技術を開発したベンチャー企業の米Xnor.aiを2020年1月に買収。近い将来、iPhoneやiPadなどに搭載するという観測も出てきた(図1)。米Intel(インテル)も半導体の学会で同様な技術を実装した専用チップを発表。国内ではLeapMindが実装モデルの知的財産(IP)を「Efficiera」として2020年6月にリリースするなど、CNNの超省エネルギー化技術の開発や製品化の競争が一気に加速してきた。利用者にとってもこれまで遠い存在だったCNNによる物体認識技術が一気に身近になる可能性が出てきた。
1W当たりの推論性能が不足
ここにきて実用化されつつあるCNNの超省電力化技術は、CNN中の演算処理の大部分を1ビット、つまり2値のバイナリーデータで演算させることから、2値化されたCNN、または「BNN(Binarized Neural Network)」とも呼ばれる。
BNNが脚光を浴びているのは、単位消費電力当たりの推論性能が実数を用いた一般的なCNNの100倍以上と非常に高いからである。
これまでCNNはいかに高い推論精度を実現するか、あるいは演算の大規模化に対応させるかに開発の主眼が置かれてきた。ところが、学習結果を利用していざ端末側で物体認識など推論をさせようとすると大きな壁に突き当たった(図2)。必要な推論性能を得るには消費電力があまりに大きい点である。
現在、製品化されているAIチップ、実質的にはCNNチップの多くは1W当たりの推論性能(電力性能)が1TOPS/W†前後にとどまっている。
一方、スマートフォンなどの端末で実用的な物体認識をさせようとすると「2.2T~8.4TOPSの推論性能が必要になる」(LeapMind)。つまり、現状の電力性能では約2~17Wの電力が必要になる。最近のスマートフォンの電池の電流容量は大きいもので5000mAh、エネルギー容量では約15Wh前後であるため、CNNの消費電力が2Wでも最大7時間半しか持たない。もちろん電池はCNN専用ではない。他の機能と同時に使えば、利用可能時間は3~4時間かそれ以下となる。スマートフォンで写真を撮る一瞬だけ物体認識を使うのならともかく、一定時間この機能を使い続けることを目指すと、消費電力の壁が立ちはだかるのである。
この課題は自動運転の実現にも壁になっている。自動運転では数百T~1000TOPS(1POPS)の推論性能が必要とされる。現行の電力性能のままでは、数百~1kWの電力を投入する必要があるが、これではEVの走行用電力を無視できない量、CNNに使ってしまう。発熱も電気ストーブ並みとなり、冷却が大きな課題となる。