全3441文字

 自動運転車には欠かせない技術として開発が進むAI(人工知能)。「レベル3」の自動運転車の実用化で先陣を切ったホンダも例外ではなく、障害物の検知や走行経路の決定などに使うAIの開発を進める。だが、自動車メーカーにとってのAIの用途は自動運転だけではない。ホンダは、AIを社内の業務改善に積極活用し始めた。

 「会議の時間を2~3割短縮できた」。ホンダの研究開発子会社であるホンダ・リサーチ・インスティチュート・ジャパン(HRI-JP)プリンシパルエンジニアの住田直亮氏は、AI導入の効果に胸を張る。

 HRI-JPは聴覚障害のある従業員とのコミュニケーションを円滑にするAI音声認識システムを開発し、2020年12月21日に報道陣に初公開した(図1、2)。ホンダの寄居工場など、グループ内の事業所での本格利用を20年9月から開始しているという。

図1 ホンダが開発したAI音声認識システムのデモ(1)
図1 ホンダが開発したAI音声認識システムのデモ(1)
聴覚障害者と健聴者が双方向でコミュニケーションしやすくした。(撮影:日経Automotive)
[画像のクリックで拡大表示]
図2 ホンダが開発したAI音声認識システムのデモ(2)
図2 ホンダが開発したAI音声認識システムのデモ(2)
発話した音声をリアルタイムにテキスト変換してディスプレーに表示する。(撮影:日経Automotive)
[画像のクリックで拡大表示]

 コスト低減のためにAIを活用する取り組みもある。「特許の年間の維持費用は数十億円に上り、150人もの人員が業務に関わってきた。AIを導入したことで、人の業務量を70%削減できた」。こう語るのは、ホンダの知的財産・標準化統括部で統括部長を務める別所弘和氏だ。特許管理を効率化するAIを開発し、人手を「より戦略的な業務に集中できるようにした」(同氏)という。

 AIを使って従業員の負荷を低減することを目指した2つの事例、詳細を順にみていこう。

「Aさんピストン40%」では伝わらず

 ホンダが社内導入したAI音声認識システムは、聴覚障害者と健聴者の双方向コミュニケーションを支援するもの。発話者がマイクに向かって発言すると、サーバー上のAI音声認識システムが発話内容をテキストに変換し、テキスト配信用パソコンを通じてタブレット端末やスマートフォンにテキスト表示する(図3)。聴覚障害者からもキーボードや手書き入力で発言できる。

図3 ホンダが開発したAI音声認識システムの概要
図3 ホンダが開発したAI音声認識システムの概要
マイクに向かって話すとデータを音声認識サーバーに送ってテキスト変換する。そのデータを、テキスト配信パソコンを介してタブレット端末やスマートフォンで表示する。(出所:ホンダ)
[画像のクリックで拡大表示]

 これまでは主に筆談で意思の疎通を図ってきたが課題は多かった。例えば会議で、Aさんが「昨日はピストンのモデル作成が40%まで進みました。今日中にクロスチェックに入れそうです」と発言する。筆談担当者は短時間で内容を伝えるために、「Aさんピストン40%」と要約することがあるという。これでは正確に内容を理解するのは難しく、認識の相違によるミスが発生する可能性がある。

 内容を正確に伝えるにはAさんの発言を一言一句書き起こす必要があるが、それでは筆談担当者にかかる負担が大きくなる。大変そうな筆談担当者を見ると、聴覚障害者は「分かったふりをしてコミュニケーションを遠慮してしまうことがあった」(住田氏)という。

 こうした課題を解決するため、ホンダの子会社で障害者を雇用するホンダ太陽(大分県日出町)やホンダR&D太陽(大分県日出町)は音声をテキストに変換して表示する市販システムを導入してみた。だが、「全く使い物にならなかった」(同氏)。会話をテキストに変換する際の正確性や、ホンダグループの社内用語や業界用語の理解に難があった。

 こうした背景を経て、HRI-JPがホンダ太陽やホンダR&D太陽の協力を得ながら開発を開始したのは17年初頭だった。半年ほどで最初の試作システムができて現場で使ってみたが、「全然ダメだった」(同氏)。ホンダの社内用語や用語への対応が不十分で、会話をテキストに変換して表示するまでに時間がかかり過ぎるというリアルタイム性の課題も浮き彫りになった。