全3223文字
PR

 人工知能(AI)に広く法の縛りを――。欧州連合(EU)が2021年4月に公表した規則案が世界に波紋を広げている。

 EUが公開した、AIの利用を制限する包括的な規則案は、AI技術に対して法的拘束力のある製品安全規制を課すものだ。発展途上の技術に法規制を課すことには否定的な見方もある一方で、うまく活用すれば企業にとってAIガバナンスの向上とリスクの軽減につながる可能性がある。

世界のルールに影響与える、ゲームチェンジ

 AIのような先端的な技術では、技術の発展を阻害しないためにも、包括的な法規制ではなく、より柔軟なガイドラインや事業者の自主的な対応による「ソフトロー」で対処すべきだ――。日本を含む各国政府はこうした立場から、これまでAIに対する包括的な法規制を導入してこなかった。そこにEUが先制パンチを打ってきた格好だ。

 「EUのAI規則案は、世界のルールに影響を与え得る、欧州が仕掛けるゲームチェンジだ。我々としても意見を出さないわけにはいかない」。電子情報技術産業協会(JEITA)技術戦略部会技術政策委員会の後川彰久副委員長はこう語る。

 JEITAは2021年8月5日、EUのAI規則案への意見を提出した。同6日に締め切られた意見募集では、EU域外からを含め計304件が寄せられた。過半数が企業と、JEITAのような業界団体からの意見だ。日本からはJEITAのほか、日本経済団体連合会とNECがそれぞれ提出した。JEITAがEUへの意見提出に当たり会員企業に意見を募ったところ「これまでの意見募集と比べ、意見を寄せる企業の数が多かった」(後川副委員長)という。

 EUのAI規則案に多くの企業が強い関心を寄せた背景には、単にEU市場でのAI製品の流通にとどまらず、世界中で今後流通するAIの安全性やセキュリティー、性能などの標準化に影響すると考えられているためだ。

AI製品安全のための評価や認証取得を求める

 EUのAI規則案は、人への安全性や人権へのリスクに応じてAIシステムを分類した上で、リスクに応じた利用規制や、製品安全のための評価や認証取得を求めるものだ。違反した際には、多額の罰金が科せられる可能性がある。

 リスク分類のうち、対象となった場合に求められる対応が多いのが「高リスク」分類だ。AI規則案では「高リスク」に分類されるAIシステムに対して、EUの安全基準への適合を示す「CEマーク」の取得などを求める。さらに、製品によっては市販後のモニタリングや、有害事象が起きた際の報告を義務付けるなどとしている。「高リスク」のAIを開発・販売する企業にとっては、評価や認証取得などのコストが膨らむ可能性がある。

リスクに応じたAIシステムの分類
EUの資料に基づき日経クロステック作成
AIシステムのリスクAIシステムの例求められる対応
受容できないリスクサブリミナルに人を操作し損害を与えるAI、公的機関によるスコアリングなど禁止
高リスク重要インフラの維持管理AI、医療機器、採用や業務評価AI、法執行にかかるAI、遠隔生体認証AIなどCEマーク取得など
限定的なリスク対話AI、コンテンツ生成AIなどAI使用の旨を通知など
最小限のリスクその他特になし

ガイドラインか、法規制か

 「(EUのAI規則案の)ハードローでの規制が成り立つのかは疑問だ」。東京大学未来ビジョン研究センターの渡部俊也教授は、EU規則案の実効性に懐疑的な見方を示す。「そうではないアプローチでやりましょうというのが、(世界に向けた)日本の提案だ」(同)。

 渡部教授が座長を務める経済産業省の有識者会議「AI原則の実践の在り方に関する検討会」は2021年8月、同年7月に公表した「AI原則実践のためのガバナンス・ガイドラインver.1.0」の英語版を公開した。同ガイドラインに法的拘束力はなく、AIシステムの開発や運用を手掛ける企業などが自主的な取り組みで活用することを想定している。

 英語版の公開によって、「(EUに対する)カウンターとして、日本のアプローチはこうだという、オルタナティブを示す」(経産省担当者)のが狙いという。

 一方、EUの規則案は日本企業にとって好機になり得るとの見方もある。慶応義塾大学総合政策学部の新保史生教授は「日本企業の中には『AI規則案に反対だ』と言う声もあるが、施行されれば順守するしかない」とした上で、「日本企業は適合性評価と第三者認証への対応はもともと得意とするところなので、安全・安心なAIシステムを欧州市場で展開していくチャンスにもなり得る」と話す。

現実的な落としどころを探る

 実際、国内の多くの企業関係者はただ規制に反対するのではなく、今後のAI規則案の施行に向け、無用の萎縮を招かない現実的な落としどころを探っている。