PR

 人工知能(AI)に倫理性を持たせるための議論が、民間企業や学術界で白熱している。 米マイクロソフト(MS)規制関連分野担当 バイスプレジデントのデイヴィッド・ハイナー氏は、2017年3月16日に都内で開催した記者説明会の中で、同社が「Trusted AI(信頼できるAI)」と呼ぶ取り組みを紹介した。公平性、説明責任、透明性、倫理をベースに、ユーザーの信頼を得られるAIを設計し、信頼を得るために必要な情報を公開する。そのための技術者向けガイドラインを社内で策定中という。

マイクロソフトが考える「AIと倫理」

 ハイナー氏が、倫理性のあるAIの開発に向けた議論の枠組みとして特に強調したのは、「信頼と安全性」と「公正とリスペクト」の二つの枠組みである。

写真●米マイクロソフト 規制関連分野担当 バイスプレジデントのデイヴィッド A. ハイナー氏
写真●米マイクロソフト 規制関連分野担当 バイスプレジデントのデイヴィッド A. ハイナー氏
[画像のクリックで拡大表示]

 AIの「信頼と安全性」が脅かされるケースの一つに、AIが不十分なデータでしかトレーニングできていない場合、あるいは世界全体のデータを反映できていない場合があるという。

 例えば、初期の顔認識技術では、学習用データが白人ばかりで構成されていた結果、コンピュータが白人特有の目の特徴を認識するようになり、結果としてアジア人の顔では認識精度が高くならなかった。「このケースでは、当初から世界全体を対象に学習データを集めるべきだった」(ハイナー氏)。

 このほか自動運転や医療など、不十分な学習データが人間に危害をもたらしかねないケースについては、想定外のケースについても十分にトレーニングを行う必要があるという。

 AIが世界全体のデータを学んだとしても、AIと倫理をめぐる問題は解決しない。世界のデータを学習したため、むしろ世界に存在する人間の差別意識をAI自身が学習し、「公正とリスペクト」という開発原則を揺るがす可能性があるという。

 ハイナー氏は、有名な事例の一つとして「three black teenagers(10代の黒人3人組)」を紹介した。「three white teenagers」というキーワードでGoogle画像検索を実行すると、楽しそうな白人の3人組の画像が表示される一方、「three black teenagers」と入力すると、警察署で撮影されたとみられる容疑者の画像が表示される、というものだ。

 「なぜ、そうなったのか。誰かがプログラミングしたわけではない。インターネット上に、アフリカ系アメリカ人の犯罪者の顔が多く存在しており、それをコンピュータが機械学習した結果だろう」とハイナー氏は語る。「機械学習は、世界をそのままモデリングしてしまう。世界に人種差別があれば、それがAIに反映されてしまう」(ハイナー氏)。

 画像検索に関するもう一つの有名な事例に、「CEO」を検索するケースがある。「Google検索で『CEO』の画像を検索してみてほしい。登場するのは大半が男性で、女性はほとんどいない」(ハイナー氏)。

 もちろんこれらの結果も、プログラマーが意図したものではなく、実際に世界のCEO(最高経営責任者)に男性が多いという事実や、メディアのジェンダーバイアスが検索結果に反映されている。「とはいえ、画像検索のようなAIに、人々がある程度の権威を感じる可能性はある。この検索結果を見た少女は、『CEOは女性の仕事ではない』と解釈しかねない」(ハイナー氏)という。公正を期すため付言すると、Bing検索でも同様の結果となる。

 この問題は、そもそも人間や社会自体が非倫理的な行動を取るのに、その行動を学ぶAIにどこまで倫理性を求めるのか、という問題に行き着く。ハイナー氏は「人それぞれ価値観は異なり、難しい問題だが、我々は真剣に考えなければならない」と語る。