AI(人工知能)に新たな潮流が生まれている。推定結果だけではなく、「なぜそう推定したのか」という根拠も示す「説明可能なAI」への関心が高まっているのだ。米国防高等研究計画局(DARPA)など世界の研究機関が開発に乗り出したほか、製品として供給する企業も出てきた。
深層学習をはじめとする機械学習の発展によって、さまざまな現場でAI(人工知能)の活用が進んでいる。高精度な推定が可能になるなどAIの利点は多いが、一方で新たな課題も顕在化してきた。それは、推定の根拠を説明できないことである(図1)。
代表的な例は、ディープラーニング(深層学習)である。深層学習では、推定に大きく影響する変数(特徴量)を自動で抽出することによって、人が特徴量を設計した場合よりも高精度な推定を実現している。だが、機械が“発見"した特徴量は必ずしも人が理解できるものではないので、「なぜそう推定したのか」という根拠が人には分かりにくい。
この課題は、何も深層学習に限ったものではない。人が特徴量などのアルゴリズムを設計する他の機械学習も、同様の課題を潜在的に抱えている。一般に、精度を高めようとすればするほどアルゴリズムもどんどん複雑になる。AIの開発者はアルゴリズムを把握していたとしても、その利用者にとっては事実上のブラックボックスになってしまうのだ。