全1483文字
PR

カメラ単体の技術の進化はほぼ終了。これからは他のセンサーとの一体化やAIを含む機能の深いレベルでの連携が始まりそうだ。

 カメラは、自動運転の“3種の神器“の中でも最も重要なセンサーといえる。カメラがあればLiDARは不要というのはTeslaだけではない。三菱電機なども当面、カメラとミリ波レーダーだけでよい、という立場だ。

 ただし、センサー単体としてのカメラにこれ以上の技術革新はあまり期待されていない。解像度だけでいえば、「800万画素(8MP)で十分」(Mobileye)で、40MPやそれ以上の高精細イメージセンサーの搭載が進むスマートフォンのほうが先を行っている。

 最近の自動運転用カメラに求められているのは、LiDARとの一体化、それも人工知能(AI)を介して連携動作をする方向性だ(図20)。

図20 LiDARとカメラの融合でパッシブサーチからアクティブサーチへ
図20 LiDARとカメラの融合でパッシブサーチからアクティブサーチへ
LiDARとカメラを一体化させた製品や開発品の例(a)。これらの多くは、カメラとLiDARの間で連携して動作する「アクティブサーチ」機能を備えている。例えば、AIが、カメラ映像中の物体の意味付けや状況を判断して、ROI(Region of Interest)と呼ばれる、映像中の注目対象やすぐには判別ができない物体(例えば、人か電柱かなど)を特定し、そこを重点的に走査するようにLiDARに伝える。AEyeは1フレームの中でROIに走査点を集めることや、フレーム間隔自体を変更することもできるという。京セラは、LiDARがSLAM(Simultaneous Localization and Mapping)で作成した地図とその中の物体にカメラで認識した色をつける「SLAM on Color」といったことも可能だとする。(写真と図:AEyeの写真と図、京セラの「スキャンコントロール」の写真は各社、それ以外は日経クロステック)
[画像のクリックで拡大表示]

 京セラもカメラとLiDARを一体化させた製品を開発中だ。同社によれば、一体化とは単に1つの筐体に同梱することではなく、光軸を共有させ、両センサーの視差の違いを高い精度でなくすことだという。単に横に並べて視界を信号処理で一致させるだけでは、環境の変化によるレンズのひずみなどですぐに大きなズレが生じてしまうからだ。最近のLiDARは角度分解能が0.1°という例も少なくないため、「0.1°以下の精度で視野を一致させることが重要」(京セラ)とする。

 一体化させた先にあるのが、カメラとLiDARのAIを介した連携動作だ。前述のSteraVisionはそれをLiDAR単独で実現したが、カメラとLiDARの一体化製品ではその流れが鮮明になっている。

 例えば、カメラで交通信号や歩行者などを発見した場合、LiDARにそこ(Region of Interest:ROI)を重点的に走査するようにしたほうが安全性を高められる。AEyeはそれを「アクティブサーチ」、京セラは「スキャンコントロール」と呼ぶ。「LiDARで道路の先に何か見つけたら、それが何かをカメラで見に行く」(京セラ)こともでき、他社製品のLiDARより遠方の障害物の検知性能が高いとする注12)。京セラはこうした機能を近い将来、利用可能にする計画だという。

注12)京セラのLiDARはMEMSミラー型かつdToF方式。MEMSミラー自体に特別な仕様はないようだが、「独自のパッケージ技術で高い耐久性と信頼性を確保した」(京セラ)という。

 先に紹介したAEyeがMEMSミラーを極端に小さくした理由の1つは、ミラーの制御性を高めてROIに走査点を集中させることにあったわけだ。