全2579文字

認識した環境の意味を地図で知る

 ここで、我々の自動運転システムの全体像をブロック図で示す(図17)。左側のセンサー系、例えば全方位を見るカメラやミリ波レーダー、LiDARに加えて、GNSS(Global Navigation Satellite System)や、IMUを使った航法装置のINS(Inertial Navigation System)、さらにデジタル地図などの情報を活用しながら認知や判断をしていくことになる。

図17 金沢大学の自動運転システム
図17 金沢大学の自動運転システム
(図:金沢大学)
[画像のクリックで拡大表示]

 情報処理の流れはこうなる。まず、各種センサーの情報を使って周囲の環境を見る。これによって、あくまでクルマに対して相対的だが、どこにどんな物体が存在していて、どのような動きをしているのか分かる。

 加えて、我々は高精度なデジタル地図を持っていて、その高精度な地図と衛星測位の情報、ジャイロの情報、研究としてはミリ波レーダーやカメラなどを含むさまざまなセンサー情報を基に、地図の中で自分がどの位置に存在しているか、どの方位を向いているかを計測する。これにより、車両から見て相対的にどこにどんな物体があったのかという情報を、地図の中にマッピングでき、認識した情報に意味付けができるようになる。例えば、前に車が走っているというのが計測されたときに、その車が自分から見て前にあるということまでは分かったのだけれども、それが単純に駐車場の中にいる物体なのか、それとも自分が走っているレーンの前に走っている車なのかといった、交通状況を加味した上での意味付けが可能になる。そしてその上で、自分がどういう動き方をすべきかを考えることができるようになる。