全2753文字
PR

 米Apple(アップル)が毎年秋にiPhoneやiPadの新製品を発表する度に、筆者はモヤモヤとした感情を抱いてしまう。何に対してか。アップル製プロセッサーが備えるディープラーニング(深層学習)専用演算ユニット「Neural Engine」の性能についてである。

 アップルが初めてNeural Engineを搭載したのは2017年11月に発売したiPhone Xシリーズのプロセッサー「A11 Bionic」で、コア数は2個で1秒間に最大6000億回の演算処理ができた。その後Neural Engineは、2018年9月に発売したiPhone XSシリーズの「A12 Bionic」で8コア、演算回数は最大5兆回/秒となり、今回、2020年10月に発売されたiPhone 12シリーズの「A14 Bionic」で16コア、演算回数は最大11兆回/秒になった。

 Neural Engineの性能は、登場して3年で18倍以上も向上したことになる。アップルが新製品発表会でNeural Engineの性能をアピールするのも当然のことだろう。それに対して筆者がモヤモヤとした感情を抱いてしまうのは、その性能が「どれぐらいすごいのか」がピンと来ないためである。

筆者のiPhone Xでは性能は実感できず

 そもそもNeural Engineは何に使われているのだろうか。例えばアップルが2019年9月に発売したiPhone 11シリーズ以降のカメラ機能には、複数枚の画像を合成して高精細でノイズの少ない画像を生み出す「Deep Fusion」が搭載されていて、これにはNeural Engineが使われているのだという。

 ところが同じようにNeural Engineを備えているiPhone XやiPhone XSでは、Deep Fusionが利用できない。iPhone 11が搭載する「A13 Bionic」は、iPhone XSのA12 Bionicと比べてNeural Engineの性能が20%向上したとするが、iPhone XやiPhone XSでDeep Fusionが利用できないのは、Neural Engineの性能が足りないからなのだろうか。

 アップルが2020年9月から配布を始めたiOS 14では、翻訳機能や音声入力機能がデバイス(ローカル)で動作するようになったが、これにもNeural Engineが使われているのだという。ただしこれらの機能が使えるのはiPhone XS/XR以降のモデルである。iPhone XはNeural Engineを搭載するが、対応していない。やはりNeural Engineの性能が足りないのだろうか。

 筆者がモヤモヤしているのは、Neural Engineに期待してiPhone Xを購入したのにその恩恵を感じていないから、だけではない(残念ではある)。Neural Engineの性能がどれぐらいあれば、どういったことが可能になるのか。それが明らかでないからモヤモヤしているのだ。

 これはアップルだけの問題ではない。ディープラーニング専用演算ユニットは、米Qualcomm(クアルコム)や韓国サムスン電子などもNPU(Neural Processing Unit)などと呼んで力を入れている。例えばクアルコムの「Snapdragon 865」のNPUは、15兆回/秒の演算が可能だという。しかし演算回数ではないユーザーにとって分かりやすいAI性能は、これまでよく分からないのが実情だった。

 そうした状況が現在、少しずつ改善されようとしている。機械学習ベンチマークの「MLPerf」が、スマートフォンにも対応したからだ。