AI(人工知能)の社会実装が進む一方で、倫理などAIに関するリスクへの関心が国際的に高まっている。AIの判断には不確実性が含まれるため「AIによって誰かが差別的な判断を受けるかもしれない」「AIによる差別が偶発的なものか恣意的なものか分からない」「ある1つのAIがネガティブに判断をすると、他のAIまで連鎖的にネガティブな判断をするかもしれない」「自分のことをAIに判断されるのが怖い」といった懸念が発生している。
こうした問題意識を背景に、国際機関や多くの政府が「信頼できるAI(Trustworthy AI)」を実現するためのポリシーやガイドラインを策定している。日本でも内閣府が2019年に「人間中心のAI社会原則」を発表し、総務省や経済産業省が実践に向けたガイドライン等を策定した。
政府の動きを受けて、AIのシステムを開発する企業の中では、自社のAIに関するポリシーを公開するところが増えている。しかしAIをビジネスに利活用するユーザー企業の多くでは、AIに関するポリシーやガイドラインの公開・実践はまだ進んでいないのが実情だ。その背景には多くのユーザー企業にとって、AIのポリシーやガイドラインに関して「具体的に何をすればよいのか」や「どこまで要求されているのか」が不明瞭であるという事情がある。
そこで本連載では、様々な論点が含まれる「AI倫理」を実現するガバナンス(AIガバナンス)をビジネスの現場で実践するための指針を、事例シナリオに基づいて紹介する。
「リスクチェーンモデル」フレームワークでAIリスクを検討
現在、AIガバナンスに関しては、政府やアカデミアに加えて様々なコンソーシアムによる取り組みが存在するが、本連載ではAI倫理に関するリスクを洗い出し、それらへの対応方法を検討する方法論として、東京大学未来ビジョン研究センターが開発する「リスクチェーンモデル」というフレームワークを使用する。
リスクチェーンモデルは、AIサービス固有の重要なリスクに対して、AIシステムの開発者やAIサービスの運営者、AIサービスの利用者が連携した対策を検討し、ステークホルダー間で合意形成を図ることを目的に、筆者も客員研究員として所属する東京大学未来ビジョン研究センターが開発した。リスクチェーンモデルがどのようなケースで利用可能か、架空の企業事例に基づいて説明する。第1回はAIに関する公平性を、人材選考AIのケースに基づき考えてみる。ビジネスの現場でAIを利活用する際に、どのようなリスクについて考慮すべきか、検討の一助となれば幸いだ。
今回のケース:海外派遣の人選におけるAIの公平性
A社はグローバルに事業を展開する消費財メーカーで、毎年海外へ日本人を派遣している。社内では海外勤務経験が高く評価される傾向があるため、各事業部(生活用品事業、健康食品事業、コスメティック事業、ウエルネス事業)から毎年合計1000人超の海外派遣希望があり、厳正な選考に基づき約20人の派遣者を決定していた。
海外派遣者の選考は従来、グローバル業務経験者が選考委員となって、各申込者の志望動機や業務経験、英語のスキルなどに基づく書類選考によって100名を選抜し、英語の面接を経て、20名の海外派遣者を決定していた。しかし応募者が多いため、書類選考だけでも相当の負荷がかかっていた。
そこでA社は解決策として、海外派遣者を書類選考するAIである「GLOBA君」を開発して導入した。GLOBA君は、申込者が英文で記述した志望動機や業務経験、研修履歴などに基づき、各申込者に10段階のスコアを設定する。これによって選考委員はGLOBA君が設定したスコアの高い申込者を中心に書類選考の通過者を検討できるようになり、全ての応募書類に目を通す必要が無くなった。
項目 | 概要 |
---|---|
AIサービス名 | GLOBA君 |
AIサービスの内容 | 海外派遣希望者の書類選考 |
出力内容 | 10段階のスコアを出力 加えて、判断結果に影響したデータ項目を「Unique Highlighter」機能が出力 |
学習データ | 過去の海外派遣希望者に関する以下のデータを使用する ・志望動機:本人が英文で自由記述したデータ(400~500語) ・業務経験:人事システムにある過去5年分のデータ(業務内容/役割/経験年数/評価スコアなど) ・研修履歴:教育システムにある研修記録データ(研修内容や成績などで、講師や研修担当者が入力する) |
GLOBA君には、AIがどのような根拠に基づいて申込者をスコアリングしたか可視化する説明可能AI(XAI)の機能も搭載した。申込者ごとに判断結果に強く影響したデータ項目は「Unique Highlighter」として可視化するほか、機械学習モデルにおいて予測に強く影響するデータ項目は「Important Features」として可視化する。
ツール名 | 概要 |
---|---|
Unique Highlighter | 申込者ごとに判断結果に強く影響したデータ項目をハイライトする |
Important Features | AIモデルから一般的に予測に強く影響するデータ項目を可視化する |
Fairness Monitor | AIモデルの予測結果を蓄積し、特定の項目(性別・出身など)に対して不公平な判断をしていないかを分析する。データサイエンティストは分析結果を参考にして、必要に応じてデータ項目をフィルタリングしてAIを再学習する |
また機械学習モデルの予測結果を分析することで、AIが特定の項目(性別や出身など)に関して不公平な判断をしていないか分析する「Fairness Monitor」という仕組みも実装した。データサイエンティストはこの分析結果を検討し、不公平な判断の基になっていると考えられるデータ項目があれば、必要に応じてフィルタリング(除外)したうえで、機械学習モデルを再学習する。
GLOBA君が導入されてから2年が経過し、選考において大きな問題はなく、選考委員の負荷も大きく削減できたことで、社内の反応は良好だった。A社は社内業務のDX(デジタルトランスフォーメーション)推進を重要な経営戦略として掲げており、GLOBA君は人事業務のDX事例として、自社のWebサイトなどで大きくアピールしていた。またビジネス誌などでもGLOBA君は「AI導入の成功事例」として取り上げられ、A社の社長が記事中で「今後は採用や教育、人事評価など様々な局面で、AIの利活用を推進したい」とのメッセージを発信していた。