全2362文字
PR

 ディープラーニング(深層学習)は人間にとってブラックボックスであり、AI(人工知能)による判断の根拠が不明だ―――。そんな懸念を解消する技術を米グーグル(Google)が2019年11月21日にリリースした。クラウドのサービスとして「Explainable AI(説明可能AI)」の提供を開始した。

 Explainable AIは深層学習によって開発したAIにおけるニューラルネットワークの稼働状況を分析することで、AIによる判断の根拠を人間に分かる形で提示する技術である。例えば画像認識AIであれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。

 構造化データに基づいて判断するタイプのAIに関しては、ニューラルネットワークに入力したデータのどの部分(特徴)がAIの判断に寄与したのかを数値で示す。グーグルのクラウドAI事業を統括するバイス・プレジデント(VP)のラジェン・シェス氏は「グーグルが開発した『Integrated gradients』と呼ぶ手法を採用している」と明かす。グーグルはIntegrated gradientsを実行するためのソースコードをオープンソースとして「GitHub」で公開している。

AIが融資不可と判断した根拠を提示

 AIの判断根拠を遡れると何がうれしいのか。シェスVPは「金融機関は規制当局に対してAIの判断根拠を示すよう求められている。与信管理AIがなぜある顧客に対して『融資不可』と判断したのか。Explainable AIを使うことで、顧客のどの属性がAIの判断に寄与したのか示せるようになる」と説明する。金融機関や医療機関などAIの「説明責任」が求められている組織が安心してAIを利用可能になるということだ。

 Explainable AIは「Google Cloud AI」のサービスの1つとして提供する。Explainable AIの分析対象となるのは、ユーザーが「Cloud AI Platform Predictions」という機能を使ってグーグルのクラウド上に展開した機械学習モデルと、グーグルのAI自動作成サービス「AutoML」の中でも表形式のデータに対応した「AutoML Tables」を使って開発した機械学習モデルである。

様々なタイプのAIが自動で開発可能にも

 Explainable AIは2019年11月に発表したばかりの最新サービスだが、AutoML Tablesも2019年4月に始まった比較的新しいサービスだ。AutoML Tablesはその破壊力の割に知名度が低いので、この機会に詳しく説明しておこう。

 まずAI自動作成サービスであるAutoMLは、グーグルが2018年に発表した。ユーザーは教師データをクラウドにアップロードするだけで、あとはAIが自動で機械学習モデルを開発してくれる。当初は画像認識AIや自然言語処理AIが開発できるサービスだった。2019年4月にAutoML Tablesを開始してからは、表形式のデータを分析するものであればデータの種類を問わずに機械学習モデルを開発できるサービスになった。

この記事は会員登録で続きをご覧いただけます

日経クロステック登録会員になると…

新着が分かるメールマガジンが届く
キーワード登録、連載フォローが便利

さらに、有料会員に申し込むとすべての記事が読み放題に!
日経電子版セット今なら2カ月無料