全1467文字
PR

 リクルートキャリアが就活生の内定辞退率を予測したデータを企業に有償で提供していた問題で、2019年12月4日に個人情報保護委員会は「リクナビDMPフォロー」を利用していたトヨタ自動車や三菱商事など37社に行政指導したと発表した。利用企業が「辞退率の予測」という目的を就活生に知らせずにリクルートキャリアと個人情報をやり取りしたのが、個人情報保護法違反の疑いがあるとした。

 厚生労働省も利用企業らに行政指導しており、リクナビ問題は一応の決着を見た。ただし決着したのは個人情報保護法など法律上の問題のみであり、企業のデータ活用のあり方を問う問題は未解明のままだ。脱法行為がなければ内定辞退率を算出してもよいのだろうか。辞退率の算出にはAI(人工知能)を利用したとする。では、人の将来を左右するような判断にAI活用はどこまで許されるのだろうか。

 これはリクナビ問題にとどまらず、今後のデータ活用、AI活用にあたって等しく問われてくる問題である。最近、説明可能なAI(XAI)が注目を集めている。深層学習によるAIの場合、判断基準も含めAIが自ら見つけ出すため、AIの判断の根拠が分からない。これでは人材採用や融資などの重要な判断に使えないため、判断に至る経緯を人にも分かる形で示す技術の開発が進んでいる。それがXAIだ。

 だが、XAIにより説明可能になったとしても、納得性のある説明ができるかというと話は別だ。例えば「競走馬や自転車関連の情報への閲覧履歴などから、ギャンブル依存の可能性が80%と判定されたので融資できません」と言われても、融資希望者は到底納得できないだろう。AIではなくデータサイエンティストの分析結果であったとしても、同様に納得性はないと思う。

納得してもらえるかが重要

 これは説明責任と密接に絡む問題だ。企業は重要な経営判断を下したり、不都合な結果を生じたりした場合には、株主や顧客などのステークホルダー(利害関係者)に説明する責任がある。もちろんただ単に説明するだけではだめ。ステークホルダーが納得できるような論理が必要になる。XAIが示した判断に至る過程を述べるだけでは説明責任を果たせないのだ。