Teslaは画像認識にDNN(ディープニューラルネットワーク)ベースの独自ソフトウエアを使うが、これを動作させるために現状ではNVIDIAのGPUがふさわしいと判断したようだ。NVIDIAのGPUはオープンな構成であることに加え、EyeQ3に比べて演算能力が約40倍と高く、将来OTA(Over The Air)によってソフトウエアを更新する際にも、チップの性能不足が生じにくい。なお、TeslaはNVIDIAのGPUよりもさらに高性能なAIチップを独自に開発しており、次世代のハードウエア構成で投入する可能性がある。
一方、BMWは2016年7月にIntel、Mobileyeと提携し、2021年までに完全自動運転車を開発すると発表している(関連記事4)。EyeQ4を搭載したZFのTriCamを採用するのは自然だ。ブラックボックスとされる認識アルゴリズムに関しても、提携関係を生かして独自の修正を加えられる可能性もある。
このように自動車メーカーによってチップ戦略には差があるものの、3眼カメラの構成自体は似通っている。Teslaの3眼カメラの場合、検知距離は望遠カメラが約250m、標準カメラが約150m、広角カメラが約60m、視野角は広角カメラが約120度と、ZFのTriCamに近い。CMOSイメージセンサーの画素数は不明だが、TeslaもBMWも100万~200万画素のセンサーを使っている可能性が高い。
3種類のカメラの活用方法については、現状ではTeslaもBMWも画角の異なる単眼カメラの組み合わせとして利用しているようだ。従来の単眼カメラ(標準カメラ)では捉えられなかった250m以上先の映像や、広視野角の映像を使い、物体検知能力を高める。
今後は標準カメラと望遠カメラを組み合わせてステレオカメラとして活用する可能性がある。実際、ZFのTriCamでは中央に広角カメラ、左右に標準カメラと望遠カメラを配置し、左右のカメラでステレオを構成できるようだ。将来、ソフトウエア更新によって機能を高めやすいのも3眼カメラの特徴といえるかもしれない。