PR

 一体、何を説明したら「説明責任」を果たすことになるのか。

 政府が「人間中心のAI社会原則検討会議」で検討を進めるAI(人工知能)に関する基本原則の議論が大詰めを迎えている。7つの原則の1つに、「AIの判断について企業に説明責任を求める」との内容を盛り込むことが明らかになった。同会議はパブリックコメントを経て2019年3月に原則を公開する予定だ。

第8回 人間中心のAI社会原則検討会議の様子
第8回 人間中心のAI社会原則検討会議の様子
[画像のクリックで拡大表示]

 AI技術が普及するにつれ、一部技術については判断の根拠を理解するのが難しく、医療や金融、採用活動など、透明性や公平性が求められる分野に適用するのは難しい、との見方がある。安全性に関する問題のほか、患者や求職者によってはAIの判断に不満を抱いたり差別的だと感じたりする恐れがあるからだ。企業が果たすべき説明責任の原則が明らかになれば、利用者にとってAIの判断を受け入れる目安になり得る。

 一方、AIを自社の事業に生かそうと考える企業にとって原則案は不安材料だ。説明を果たすとはいえ、情報システムの中身を外部に公開することは、競争力を削ぐことにつながりかねない。そもそも何をどこまで説明すれば利用者を納得させることができて責任を果たしたことになるのか、技術的に可能なのかなど、不透明な要素が多い。

 AIを使ったサービスを使う側と提供する側の間で、説明責任に関する折り合いはつくのか。2018年12月13日、内閣府が第8回目の検討会を開き、有識者が説明責任の意味や範囲などについて議論した。

 会議の冒頭、議長で東京大学教授の須藤修氏は「政府のAI原則は理念であり、企業に対する拘束力はなく、ガイドラインでもない」と述べた上で、「システムがAIを利用していることを明示し、その動作が適切かを担保することが必要」との認識を示した。