全4312文字
PR

 人工知能(AI)あるいは機械学習(ML)の分野でこの数年間ホットなトピックとしてあり続けているのが、自らの推論の根拠を自ら説明できるAI(説明可能AI)です。機械学習、特に深層ニューラルネットワーク(DNN)とその学習法である深層学習(DL)は推論の中身がブラックボックスで、そのままでは説明責任が問われる医療や金融の投資判断には使えないという声が大きいことから、脚光があたるようになりました。

 米国防省(DoD)傘下の研究機関である国防高等研究計画局(DARPA)は、これをeXplainable AI(XAI)と命名して研究しています。2019年11月には米グーグルがXAIに対する最近の研究成果をホワイトペーパーとしてまとめて発表。モデル解析のためのツール「What-if Tool」も公開しました。

エキスパートシステムの再来?

 こうした動きを見ていると、説明可能AIの研究は一定の成果を出しており、AIのブラックボックス問題を解決しつつあるかのように感じてしまうかもしれません。

 しかし、AIの著名な研究者の中にはXAIに懐疑的だったり、場合によっては一部のXAIの有効性を否定するだけでなく、弊害を指摘したりする人が少なくありません。例えば、DNN/DLを事実上復活させたことで著名なカナダ・トロント大学 コンピューター科学学部 名誉教授でグーグル フェローでもあるジェフリー・ヒントン氏は、説明可能AIに対する代表的な否定論者の1人です。グーグル(の人工知能研究チームであるGoogle Brain)はこの件について一枚岩ではなく、さまざまな意見の人が混在しているようです。

 ヒントン氏はいくつかのメディアのインタビューで一貫して説明可能AIについて否定的な意見を述べています(例えば、2019年7月4日の日本経済新聞)。

 ヒントンの主旨の1つは、DNN/DLは、膨大なデータから抽出した重みからできており、そこに人間が判断できる簡単なルールはない、というもの。そのルールを聞かれることは、あたかも、1970~1980年代に多数の研究者が挑戦して失敗したルールベースのエキスパートシステムなどに先祖返りしろと言われているように感じるのかもしれません。実はグーグルは「XAIはエキスパートシステムの復活だ」としています。

聞き手の予断に合わせるのが説明?

 ヒントン氏は、DNN/DLの推論は人間自身の無意識の判断に似ているともいいます。人間自身が自分の判断の根拠を分かっておらず説明してもいない。無理に説明を求められれば、適当な話をでっちあげるしかないということを述べています。

 これは実際、人間自身が日常的にやっていることであるようにも思います。自分のやりたいことを他人に説明するのに、自分がその結論に至ったすべての検討や動機を伝えようとする人はあまりいないでしょう。仮にそれをやったとしても相手に理解される保証はありません。代わりに、相手にとって何をどういえば“分かった気”になってもらえるかを考えるのが“説明”の早道です。そしてその“説明”が、自分にとって本当の理由だったかはかなり怪しいでしょう。

 説明できるということが、複雑な経緯や仕組みから出てくる判断を、説明を受ける側の既存の知識の組み合わせで記述することであるとすれば、DNN/DLの判断を説明するAIも、それと同じことをやっているのではないかと考えてしまいます。

 まさにそうした説明可能AIも開発されています。DNN/DLに入力したデータをスタート地点、推論した結果をゴールとする他は、DNN/DLとはまったく独立にその2点をつなぐロジックを既存の知識に基づいて組み立てる手法です。ゴールが分かっていれば、比較的簡単なルート探索問題です。ただし、仮にその手法でルートが見つかったとして、それがDNN/DLの推論の真の根拠である保証はありません。既存の知識というバイアスが作り出した偽の根拠である可能性があるわけです。それでも、人間を分かった気にさせることにはなります。