PR

 このままでは日本での自動運転車やドローン、IoT(Internet of Things)の開発や普及が立ち後れてしまう―─。企業や研究機関などで構成する「ロボット革命イニシアチブ協議会」と経済産業省は2016年2月、都内で「ロボット革命国際シンポジウム」を開いた。このうち「ロボットの社会実装に向けたルール作り」と題したセッションでは、欧米の動きを踏まえて、ロボットを社会で使うためのルール作りが必要だという議論が繰り広げられた。

 2015年5月に設立した「ロボット革命イニシアチブ協議会」は、センサーや人工知能を駆使するITシステム全般をロボットと位置づけて、「ロボット新戦略」を提案。政府の日本経済再生本部が政府の方針として決定した。

 米国では「We Robot」というコンファレンスを2012年から4回開催して、分野横断的な法制度の検討が始まっている。また、EU(欧州連合)では既に、EUの資金支援を受けた「RoboLaw Project」が2014年5月にロボット規制のガイドラインを公表した。しかし日本では、ようやく法的な課題の議論が始まった段階だ。

ロボットによって起きうる問題に焦点

写真1●米サムフォード大学ロースクールのウッドロウ・ハートゾグ准教授
写真1●米サムフォード大学ロースクールのウッドロウ・ハートゾグ准教授
[画像のクリックで拡大表示]
 シンポジウムでは、ロボットが社会で使われる「社会実装」に向けて、欧米のルール作りの現状が報告された。このうち米サムフォード大学ロースクールのウッドロウ・ハートゾグ准教授は、米国ではロボットの明確な法的定義はないとしながらも、「ロボット法はロボットをカテゴリーで定義するのではなく、ロボットによって起きうる問題に焦点を当てるべきだ」と述べた(写真1)。それによってロボットの技術開発に道を開くことができるという。

 起きうる問題についてハートゾグ准教授は、ロボットが人々を騙すように使われたり、コンピュータと同様に個人情報を集めて利用して不当に広めたりハッキングの対象にもなったりすると指摘。さらには、可愛らしさなどで人間の感情に働きかけて依存心を抱かせたり、健康・医療分野などの個人のプライベートな空間で利用されたりすると、あらゆる個人の情報を集められるため、ロボット固有の新たな問題が起きうると語った。人工知能や機械学習の「アルゴリズムの透明性」が社会で受け入れられるものにできるかも課題だという。

 その上で、さまざまな規制機関が自動運転車やドローンなどをパッチワークのように規制するのではなく、不公正取引の規制や消費者保護を担う連邦取引委員会(FTC)が横断的に監督できるとした。また、「ロボット法はコンピュータだけでなく、心理学や哲学、社会学などの学術的見地から検討されるべきだ」と述べた。