PR
名古屋大学 客員准教授 野辺継男氏
[画像のクリックで拡大表示]
名古屋大学 客員准教授 野辺継男氏

 米ウーバーテクノロジーズ(Uber Technologies、以下Uber)をはじめ、自動運転車で死亡事故が発生したことで、自動運転技術の安全性を不安視する声が出てきた。一方で、自動運転の技術は日進月歩で進んでいる。今後の自動運転の技術開発やビジネス展開はどうなるのか。「技術者塾」の講座「最新版 自動運転の最新技術と事業課題の全て」の講師であり、自動運転に関する事業開発も手掛ける名古屋大学 客員准教授の野辺継男氏が解説する。(近岡 裕)

 これまでに自動運転の開発段階で発生した死亡事故は3件ある。1つ目は2016年5月の米テスラ(Tesla)の電気自動車(EV)「Model S」が起こした事故、2つ目は2018年3月18日の米ウーバーテクノロジーズ(Uber Technologies、以下Uber)による事故()、3つ目は同年3月23日の再びTeslaのEV「Model X」による事故である。

 正確には2016年のTeslaの事故は、米国国家交通安全委員会(NTSB)やTeslaも指摘しているように、「AutoPilot」とは呼ぶものの、先進運転支援システム(ADAS)であって自動運転技術による事故ではない。一方、2018年3月のUberとTeslaの2件の事故に関しては、両社とも自動運転技術の開発過程で起きた事故と認識している。

図1●Uberの自動運転車の事故直前の様子
[画像のクリックで拡大表示]
図1●Uberの自動運転車の事故直前の様子
アリゾナ州テンペ警察が公開した動画。自転車を押した歩行者をはねて死亡させた。(出所:テンペ警察)

Level3の定義に対する補正

 2016年5月の事故に対するNTSBの最終調査結果は、約1年半を経て2017年10月に報告された。2018年の2つの事故に対する結果はまだ出ておらず、現時点での推測は避けるべきだろう。

 しかし、Uberの事故に対してはいくつかの企業や大学などの関係者から「既に市場に普及し始めている緊急ブレーキ装置でも致死的事故は避けられた可能性」が高く、ましてや「同車に装着されていたLiDARがしかるべく機能していれば、衝突自体も回避された可能性」があると指摘されている。

 Teslaのケース(Model Xの事故)では、衝突が死亡事故につながった理由として同社は次のように主張している。Model Xが車線を分けるコンクリート製の分離壁の角に衝突した際に、本来衝撃を減らすはずの緩衝装置が撤去されていたか、あるいは前の事故の後に緩衝装置が取り外されたまま、新しいものが装着されていなかった可能性がある、と。だが、これに対しても、Tesla車には装着されていないが、LiDARとそれに基づく回避システムがしかるべく稼働していれば、激突そのものを避けられた可能性があるとの指摘がある。

 一方、2016年のTeslaの事故は、その後の自動運転の開発に対する海外各社の方針や米国運輸省道路交通安全局(NHTSA)の定義に大きな影響を与えた。この事故以降、多くの欧米の自動車メーカーにレベル3の自動運転車の市場導入を躊躇する傾向が見られる。レベル3とは「人間の運転」とクルマが自ら運転する「自動運転モード」が共存する半自動運転だ。

 2016年の事故以降、NTSBはドライバーによる半自動運転技術の誤用を防ぐために「自動運転モードでも、ドライバーの継続的な運転への関与を保証する方法を検討するように」いくつかの自動車メーカーに要請した。さらに、その後9月に改訂された連邦交通安全局(NHTSA)のレベル3の定義には「自動運転システムからの要請があればドライバーは常に運転に戻る用意がなければならない」と訂正された。その背景には、メーカーごとの自動機能の定義や実現されている技術的レベルがまちまちで、「自動運転」の機能が実際にどこまで出来ていて何がまだ出来ていないのか、またどのような状況で走行の自動化が可能でどのような状況では不可能なのかを個々のユーザーに正確に認識してもらうことが難しいという判断がある。

 ましてや、今後は販売後にソフトウエアのアップデートにより機能が追加される使い方が増えると想定される。これによる機能の新たな実現範囲を、その都度、ドライバーが常に正確に把握することは非常に難しい。我々がスマートフォンや家電製品などでも機能を十分理解し、できることとできないことを全て把握して利用しているわけではないという現状を見ても、推して知るべしである。

 上記3月の死亡事故以降、同年5月8日にはフロリダで2人の10代の若者が乗るModel Sの死亡事故が発生している。この事故ではAutoPilotは稼働しておらず、地元で「dead man's curve」とも呼ばれるカーブでスピードの出し過ぎにより発生した可能性があり、NTSBは「EVの火災事故」とみて調査を開始している。その3日後の同月11日にはユタ州で、赤信号で止まっていた消防車にModel Sが時速100kmで衝突した。この事故でドライバーが足を骨折したが、消防車側に負傷者はいない。この事故ではAutoPilotが稼働していたとされるが、ドライバーはスマートフォンを見ていたと供述している。現時点ではこの件に対してNTSBは動いていない。

 2016年のNTSBの要請以降、いくつかの自動車メーカーはドライバーの頭や目の動きを追跡し、ドライバーが運転に集中しているかどうかをモニタリングする赤外線カメラなどを装着した。Teslaは2016年のModel Sの事故以降、AutoPilotを修正し、ハンドルに手を当てていないドライバーへの警告の頻度を増やした。ドライバーが常に安全を確認するように警告するためだ。しかし、現実問題として運転の自動化が進むほど、人間であるドライバーの意識を運転に関与させ続けるのは困難になる。自動化が進むほど、多くの場面で”意外に”自動で走れてしまい、それに慣れたドライバーは機能を”過信”し、運転しているという自覚を失ってスマートフォンの操作や読書などに集中してしまう可能が高くなるためだ。

さらに、人間が運転操作のごく一部でも処理する必要があるレベル3の「自動運転」と、常にドライバーが安全義務の責務を負うと定義されるレベル2以下の「運転の自動化」においても、ドライバーの運転状況を監視する技術が必要だという指摘が出てきており、その重要性は増している。