「欧州AI規則案は施行に向けて着々と準備が進んでいる。2024年には全面施行になる可能性がある」。渥美坂井法律事務所・外国法共同事業の三部裕幸弁護士は、欧州委員会が整備を進めるAI規則案の状況をこう語る。
欧州AI規則案は、AI全般の利活用を対象とした世界で初めての法規制となる。内閣府が2019年に公表した「人間中心のAI社会原則」の検討会議で議長を務めた中央大学の須藤修教授ELSIセンター所長は、欧州AI規則案について「欧州の戦略をグローバルのルールにしたいという意図が見え隠れする」と指摘する。
これまで特定の業界におけるAIの利活用に関するルールを整備した例は存在する。例えば米国は州ごとに定める雇用や消費者保護、金融など特定の業界におけるAIの利活用に対する法整備が進んでいる。
欧州AI規則案は欧州地域で販売したりサービスを提供したりするAIシステムを対象とし、AIシステムのリスクを基に4つの区分に分類している。区分は規制が厳しい順に、禁止されるAIシステム、ハイリスクAIシステム、透明性義務を伴うAIシステム、最小限リスクのAIシステムだ。このうちハイリスクAIシステムと透明性義務を伴うAIシステムについてはプロバイダーに様々な義務が発生する。違反した企業は3000万ユーロか、もしくは前年度の全世界売り上げの最大6%のうち金額の大きいほうが制裁金として科される。
国内に拠点を置く各社もAI倫理を担保するために様々な取り組みを進めている。米Microsoft(マイクロソフト)はAIシステムの開発や利用にレビューが必要かどうか確認できるガイダンスを社内に提供している。公平性や信頼性と安全性などからなる「AI倫理の6原則」の実践に取り組むとしている。
国内に拠点を置く各社もAI倫理を担保するために様々な取り組みを進めている。
IBMはプロジェクトごとに審査
AI倫理を担保する先進的な取り組みを進める1社が米IBMだ。日本IBMを含めてワールドワイドでAI倫理に取り組んでいる。
米IBMはAIシステムを取り扱う事業部にAI倫理担当を設置し、この担当者がAIを組み込むサービスや製品などの開発プロジェクトを全て審査するルールとした。プロジェクトごとにサービスや製品の開発初期に審査を受けるほか、想定するユースケースなどの状況が大きく変化するたびに審査を受け、審査が通ると企画提案など次の工程に進む仕組みだ。
審査は自由記述による回答とチェック項目による回答の2種類から成る。サービスや製品などについて想定しているユースケースやリスクを自由記述形式で回答するほか、「顔認証の用途を想定しているのかどうか、軍事的な利用の可能性があるかどうかといった、非常にクリティカルな項目はチェック項目を用意している」(日本IBMの山田敦執行役員兼技術理事 IBM AIセンター長)。
顔認証の用途を想定しているかどうかを確認する理由は「(AIの推論結果に対して)人種の要素が入ってしまいがちで、人種による偏見によって不公平が生じるのを避けるためだ」(同)という。