全8451文字
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 自動運転車やロボットにおいて、LIDARやカメラなど異なるセンサからの情報をうまく統合することは、周囲の環境を頑健に認識する上で重要だ。対象物までの絶対距離をスポットで疎に計測するLIDARと、対象物の見え方(アピアランス)を多くの画素で密に捉えるカメラは、互いの長所短所を相補的に組み合わせることで一層の効果を発揮する。

 こうしたマルチモーダル(手段)なセンサ情報の融合(fusion)について、このほど米グーグルが新しい手法を機械学習ベースで開発した。

 自動運転向けのデータセット「Waymo Open Dataset」について、3次元(3D)オブジェクト検出の精度を競うLeaderboardで、2022年4月時点で世界トップの精度を実現した1)。同じ米Alphabet社傘下企業で、自動運転車の開発を手掛ける米Waymo社(図1、図2)との共同開発である。

図1 Waymo社の自動運転車 
図1 Waymo社の自動運転車 
写真は英Jaguar Land Rover社の電気自動車「I-PACE」をベースにした自動運転車である。(写真:Waymo社)
[画像のクリックで拡大表示]