全1962文字
PR

 トヨタグループの主要部品メーカーであるアイシン精機は2019年10月、カナダの人工知能(AI)スタートアップ、エレメントAI(Element.AI)と共同開発プロジェクトを始めた。目標は、AIが自ら判断の根拠を説明する「説明可能なAI(Explainable AI)」の開発だ。

 エレメントAIは起業家のジャン=フランソワ・ガニエ(Jean-Francois Gagné)氏と、AI研究の第一人者であるヨシュア・ベンジオ(Yoshua Bengio)氏がカナダのモントリオールで創業したスタートアップ企業だ。説明可能AIを研究する専門チームを有する。

 アイシン精機 技術企画・統括部の名取直毅CP(Chief Project General Manager)は、エレメントAIとの協業で「2019年度には説明可能AIのPoC(概念実証)を、2020年度には本稼働を目指したい」と意気込む。

アイシン精機技術企画・統括部の名取直毅CP(右)、同社 データサイエンス技術部の髙橋克彰グループマネージャー(左)
アイシン精機技術企画・統括部の名取直毅CP(右)、同社 データサイエンス技術部の髙橋克彰グループマネージャー(左)
(出所:アイシン精機)
[画像のクリックで拡大表示]

きっかけはニューラルネットの国際学会

 なぜアイシン精機は他の国内企業に先駆けてエレメントAIと組み、説明可能AIの研究開発に踏み込んだのか。そのきっかけは1年前にあった。

 同社の研究員が2018年12月に開催されたニューラルネットワーク分野で最も権威のある国際学会「NeurIPS 2018」に参加したことだ。多くのセッションを聴講するなかで「AIのブラックボックス問題」や「AIの説明可能性」が世界的にホットトピックになっていると実感した。

 AI技術の一種である機械学習の中には、「深層学習(ディープラーニング)」や「SVM(サポートベクターマシン)」など、判断の根拠を学習モデルから読み取ることが極めて困難な技術がある。

 例えば自動運転車が歩行者と衝突事故を起こした際、「なぜAIは歩行者を見逃したのか」の原因が分からないと、問題を根本的には解決できない。医療の診断補助にAIを活用する場合、「なぜAIはこのように判断したのか」が分からないと、医師はAIの判断を使いづらい。あるいは、医師が自身の判断よりAIの判断を優先させる「AIへの過信」につながる恐れもある。

 アイシン精機も当時、AIが出力する結果について悩みを抱えていた。製品の外観写真などのデータを解析して品質上の課題を発見するAIの判断を、品質検査の責任者がどう解釈すればいいかが課題だった。

 「問題あり」「問題なし」といったAIの出力結果を現場の技術者が理解し、納得し、生産ラインに対策を講じないことには、AIの導入効果は半減する。精度の高さだけを追い求めるAIではない「人を納得させるAI」が求められた。アイシン精機 データサイエンス技術部の髙橋克彰グループマネージャーは「ただ単に『重要度が高い領域を可視化する』だけの説明可能AIなら我々にも構築できる。我々が欲しいのはその先、『工場の現場や顧客が納得する説明ができるAI』だ」と語る。