全2679文字
PR

 「ここ2年ほど、主要な国際AI学会では新しい『説明可能なAI』の手法の提案よりも、どの説明可能AIが実社会で使えるか、生成する説明に信頼性があるか、などを検証する研究が増えてきた」。説明可能AIの研究動向に詳しい大阪大学 産業科学研究所の原聡助教はこう語る。

 説明可能AIへのニーズや実用化への機運が産業界で高まりつつある一方、大学など学術界においては技術の限界や過信へのリスクに警鐘を鳴らす研究が目立ってきた。説明可能AIの実用化に向けた、産業界と学術界双方の動きを追った。

説明可能AIの代表選手「LIME」と「SHAP」

 説明可能AIの手法はいくつかあるが、特に産業界において代表的な手法と目されているのが「LIME(local interpretable model-agnostic explanations)」と、その発展形である「SHAP(SHapley Additive exPlanations)」である。LIMEは2016年開催のデータ分析の国際会議「KDD」で、SHAPは2017年開催のニューラルネットワークの国際会議「NIPS(現在のNeurIPS)」でそれぞれ発表された。

 いずれも基本的なコンセプトは共通する。特定の入力データ項目(特徴量)を変化させた際にAIの出力結果が反転ないし大きく変動すれば、その項目を「判定における重要度が高い」と推定する。LIMEは画像認識AIに、SHAPは表データを処理するAIの解釈性に使われることが多い。

 LIMEやSHAPの利点は、AIの精度を犠牲にせずにAIの解釈性を高められる点だ。一般にAIの精度と解釈性はトレードオフにあるとされ、精度を高めるほどAIの本体である機械学習モデルがブラックボックスになる傾向がある。AIの実応用を進める上で悩ましい課題だ。

 LIMEやSHAPは、適用するにあたって機械学習モデル自体に手を加える必要は無い。モデルの種類を問わず、あらゆる機械学習モデルに適用できる。

 「SHAPやLIMEは汎用性が高く使いやすいため、顧客への提案を目指してユースケースをいくつか試している」とNTTデータ 技術開発本部 エボリューショナルITセンタ 先進AI技術担当の稲葉陽子部長は語る。現在は2つの商標の類似性を判定する画像認識AIについて、LIMEをベースに判断の根拠を説明する機能の開発を進めている。

 三菱UFJフィナンシャル・グループの研究開発子会社Japan Digital Design(JDD)の澤木太郎主任研究員もSHAPに着目している。

 JDDは三菱UFJ銀行が2019年6月に始めた中小企業向けオンライン融資サービス「Biz LENDING」のスコアリングモデルの開発を手掛けている。口座トランザクション情報を基に教師あり学習で貸倒確率を算出している。決算書を基に算出する過去のスコアリングと比べ、粉飾などの不正に左右されにくいのが強みだ。

 こうしたスコアリングモデルで一般的に使われる機械学習モデルのうち、「深層学習(ディープラーニング)」「勾配ブースティング(GBDT)」「ランダムフォレスト」といった技術は「精度が高い一方、各案件ごとになぜその出力が得られたのか、人が理解できない問題がある」と澤木主任研究員は語る。

 SHAPはそうした弱点を緩和する手法として使える可能性があるという。「個別の案件の出力について、どの変数がどう効いているかを可視化できる」として、引き続き説明可能AIの研究を進める考えだ。

この記事は有料会員限定です

日経クロステック有料会員になると…

専門雑誌8誌の記事が読み放題
注目テーマのデジタルムックが読める
雑誌PDFを月100pダウンロード

日経電子版セット今なら2カ月無料