「我々は『人工知能(AI)の基本理念』に従ったAIの構築に努めている。(その理念に沿って)人間がAIの挙動を理解するのに役立つ『説明可能なAI(Explainable AI)』を導入できることをうれしく思う」。米グーグルのトレイシー・フレイ(Tracy Frey) クラウドAI戦略ディレクターは同社ブログでこう表明した。
グーグルが、クラウド型AIサービスの一部に説明可能AIの機能を加えたと明らかにした。機械学習モデルの出力について、入力データの各要素がどれくらい寄与したのかを算出して表示できる(図1、図2)。このサマリー情報を通じ、ユーザーはAIがなぜその判断を下したのか、理由を理解できる。

注目したいのは、グーグルがこのサービスを、同社が2018年6月に策定した「AIの基本理念」の一端を担う取り組みと位置づけている点だ。この理念は、グーグルが開発するAIについて「不公平なバイアスを防ぐ」「人々への説明責任を果たす」などの原則を掲げている。
同社はサービスの発表と合わせ、説明可能AIについて27ページにおよぶホワイトペーパーを公開した。この文書は同社が採用する説明可能AIの詳細を明らかにするとともに、説明可能AIの限界や、人間とAIとの付き合い方について、グーグルの考えを示すものとなっている。
AIを円滑に社会実装するカギとも言える説明可能AIについて、グーグルは何を考えているのか。ホワイトペーパーの記述からグーグルの思考を読み解こう。