全3997文字

 近年におけるAI(人工知能)の発展は著しい。しかしその一方で、企業における実際の業務にAIを活用する取り組みは、あまり進んでいないのが実情だ。AIの活用を阻んでいる「壁」と、それを乗り越える方法を解説する本連載。第4回はAIの信頼性を揺るがす「不公平」に関する問題と、その対策を取り上げる。

 オンラインショッピングやマッチングアプリのような身近なサービスから、ローン審査といった人生を左右する業務にまでAI(人工知能)が活用される今日。AIの推論結果にはますます高い信頼性が求められる。しかし偏見やステレオタイプを含む不適切な推論をAIがした結果、社会的な問題となるケースも少なくない。

 例えば、米国の一部の州にある裁判所で使用されている「COMPAS」という再犯予測システムは、アフリカ系アメリカ人の被告に対して不利な判定をすると分かり、大きな社会問題となった。米国の著名なIT企業が開発した人事採用システムが、ソフトウエアエンジニアなどの技術職を採用する際に、女性に対して不利なスコアを算出することが分かって、利用が停止されたこともある。第3回でも取り上げたように、多くの顔認証システムが特定の人種に対して精度が低くなるという問題も明らかになっている。

 このような背景からAIの適切な利用について世界中で議論が進んでおり、様々な団体から声明やポリシーが示されている。影響力の大きいものとしては、2019年に欧州委員会が公表した「Ethics guidelines for trustworthy AI(信頼できるAIの倫理指針)」がある。これはAIを安全な人間の道具とするため、AIが満たすべき7つ原理・原則を定義し、それらの実現に向けた技術的手法や非技術的手法(法規制や行動規範など)の指針を示した。

 日本でも内閣府による「人間中心のAI社会原則」や総務省による「AI利活用ガイドライン」など、国家としての指針が示されており、全世界で協調した動きが進みつつある。また上記の指針をベースに、実業務を意識した具体的な基準や開発手法も整備されつつある。

日本におけるAIに関する倫理指針策定の動向
日本におけるAIに関する倫理指針策定の動向
出所:NTTデータ
[画像のクリックで拡大表示]

 このように様々な取り組みが進む一方で、AIの公平性に関するトラブルは根深く、根本的な解決には至っていない。

不公平な推論の原因

 なぜAIは不適切な推論を出力してしまうのだろうか。その主な原因はAIを構築するためのデータ(学習データ)にある。AIは学習データから規則性を発見しそれに基づいた推論を行うが、学習データとして与えられるデータには偏り(バイアス)が含まれていることが多く、推論結果にもそのバイアスが含まれてしまうのだ。

 学習データに含まれるバイアスの例を4種類示そう。

学習データに含まれるバイアスの例
学習データに含まれるバイアスの例
出所:NTTデータ
[画像のクリックで拡大表示]

 第1は「歴史的バイアス」だ。現実世界に存在するデータは、人間の過去の営みに基づいているため、歴史的過程で形成された社会通念による偏りが含まれている。例えば日本企業の社長を務める女性の割合は8%と、男性の割合に比べて大幅に小さい現状がある。そのため現在のインターネット検索エンジンでも「社長」をキーワードに画像検索をすると、上位の検索結果にはスーツを着た男性しか表示されず、女性社長の存在が無視されてしまう結果となっている。

 第2は「サンプリングバイアス」だ。全てのデータからAI構築のためのデータを選ぶ際に、不適切に抽出をすることで新たな偏りが生まれてしまうことがある。例えば顔認証システムを構築する際の学習データとして、特定の人種・年齢の画像ばかり選択してしまうと、学習データに含まれない人がシステムを利用した際に誤認識が多発する恐れがある。

 第3は「加工バイアス」だ。抽出したデータをプログラムが読み込めるよう加工する際、特徴量の選択や量子化の手法によって、バイアスが発生することがある。例えば前述のCOMPASの学習データでは、本人の属性のほか、友人や家族の逮捕歴が再犯リスクを算出する指標として使われたことが、不当な結果へつながっていた。

 第4が「学習バイアス」だ。モデル構築のアルゴリズムによってもバイアスが生じることがある。例えば公平性が考慮されていないアルゴリズムでは、予測性能向上のために少数派のデータをノイズとしてみなして、無視してしまうことがある。