全13717文字

 米マサチューセッツ工科大学(MIT)傘下の研究所「MITメディアラボ」の前所長である伊藤穣一氏を巡る倫理的スキャンダルの皮肉は、伊藤氏がAI(人工知能)の倫理に関する学術的な取り組みを主導していたことだ。14歳を含む未成年の少女を売春した罪に問われた富豪であるジェフリー・エプスタイン(Jeffrey Epstein)氏との金銭的な関係を明らかにされた後、伊藤氏はMITでの複数の役職だけでなく、米ハーバード大学ロースクールの客員教授のほか「John D. and Catherine T. MacArthur財団」や「John S. and James L. Knight財団」、米ニューヨーク・タイムズ(New York Times)の理事会や取締役会の地位を失うことになった。

 伊藤氏のスキャンダルを知った多数の人々は、AIの倫理学者としての伊藤氏の影響の大きさに困惑している。実際、彼の取り組みは「倫理的AI」という概念が学界や主流派のマスコミに広く普及する上で非常に重要な役割を果たした。2016年には当時のバラク・オバマ米大統領が、伊藤氏をAIと倫理学の「エキスパート」と評した。2017年から伊藤氏は、MITメディアラボとハーバード大学の「Berkman Klein Center for Internet and Society」が支援する2700万ドル規模の「AIの倫理とガバナンスファンド」を通じて、多くのプロジェクトに資金を提供してきている。しかしここにおける「倫理」とは、実際には何のことを言っているのだろうか。

MITメディアラボの大学院生が倫理的AIの裏側を告発

 筆者は大学院生の研究者として、MITメディアラボにおける伊藤氏のAI倫理グループで14カ月働いてきた。しかし2019年8月15日に、そこで働くことをやめた。伊藤氏がエプスタイン氏との関係について最初の「謝罪」を発表してすぐのことだ。その中で彼は、MITメディアラボと彼が学外で運営するベンチャーファンドのために、エプスタイン氏から資金を受け取ったことを認めた。伊藤氏はこの時の謝罪においては、金銭の授受があった時点でエプスタイン氏がフロリダの児童買春の罪状を認めていたことや、伊藤氏がエプスタイン氏の名前を公式の記録から消すために多くの手段を講じていたことを明らかにしていなかった。これらの事実は後に、米誌「ニューヨーカー」が暴いた。

 筆者はサイン・スウェンソン(Signe Swenson)氏などの告発者に刺激を受け、AI倫理の分野における伊藤氏の役割について知っていることを公表しようと決心した。なぜならこれは、社会的関心が高い問題だからである。AI倫理が台頭したのはつい最近のことである。なぜなら過去のAI研究者たちの大部分が倫理の研究に興味を持っていなかったからだ。MITメディアラボの元同僚は、MITにおけるAIのパイオニアであったマービン・ミンスキー氏(Marvin Minsky)氏が「倫理学者とは、あなたが想像できるあらゆる種類の問題を抱えている人のことだ」と言っていたことを覚えているという(最近公開された裁判の資料の中で、被害者であるバージニア・ロバーツ・ジュフレ(Virginia Roberts Giuffre)氏は、エプスタイン氏が彼女に対してミンスキー氏と性交渉を持つよう指示したと証言している)。ではなぜ、AI研究者たちは最近になって、倫理について急に話し始めたのだろうか。

倫理的AIは規制逃れの手段だ

 MITメディアラボで筆者が学んだのは、伊藤氏が実質的に主導した「倫理的AI」を巡る議論が、テクノロジーに対する法的規制を設けようとする政府の取り組みを妨げようとしているシリコンバレー企業の動きと戦略的に連携しているということだった。例えば、MITメディアラボの研究者を含むグループがカリフォルニア州で行った政策提言は、筆者が何人かの同僚たちと取り組んだ研究の結論と矛盾していた。我々の研究では、裁判で審理中の人々を投獄するかどうか決めるためにコンピューターアルゴリズムを利用することに反対するという結論に至ったのだが、同グループはそれとは逆の提言をしたのだ。

 伊藤氏自身も最終的には、金融機関やテック企業の幹部との私的な会合で、同グループの提言は倫理的な難問を「白塗り」してごまかすことを意味していると不満を述べていた。「それらは(勾留決定において)うまく働かないと思われるアルゴリズムの利用を防ぐために私たちが言おうとしていることを骨抜きにする」と伊藤氏はある億万長者に打ち明けていた。

 筆者はまたMITが米軍を手助けして、ドローンを使用した戦争に関する道徳的な複雑さを無視しようとするのを目撃している。MITは一部から戦争犯罪人に値すると糾弾されているヘンリー・キッシンジャー(Henry Kissinger)元米国務長官によるAIと倫理に関する軽薄な講演を主催し、米国防総省が戦争するために設けている「AI倫理原則」にインプットを与えた。AI倫理原則は「許容される範囲でバイアスを持つ」アルゴリズムを受け入れるべきだと主張している。なお国防総省が「戦争は公正であるべきではない」と信じているために「公正さ」という言葉の使用をここで避けている。

 伊藤氏は本件についてコメントを返さなかった。

 MITは、巨大テック企業は批判や法的規制を求める声に直面する中でもAIの利用を自分たちで規制できる、という考えに信頼性を与えた。(巨大テック企業が倫理的AIに関して主張し始めた)2018年は、AIに関する様々な論争が起こっていた。米フェイスブック(Facebook)は5000万人以上のユーザーの個人情報を、ドナルド・トランプ氏が大統領選挙戦のために雇っていた政治マーケティング企業に漏らしていた(2018年3月に発覚)。米グーグル(Google)は戦闘区域において画像認識ソフトウエアを使用するために国防総省と契約していた(同年3月に発覚)。米アマゾン・ドット・コム(Amazon.com)は警察に顔認識技術を販売していた(同年5月に発覚)。米マイクロソフト(Microsoft)は米移民・関税執行局(ICE)と契約を結んでいた(同年6月に発覚)。米IBM社は監視カメラの映像を使った顔認識と人種区別に関して、ひそかにニューヨーク市警と協力していた(同年9月に発覚)。

 これらの企業に勤める数千人の従業員が「#TechWontBuildIt」のスローガンのもとに抗議活動を展開し、これらの契約に反対する署名活動を行った。「#NoTechForICE」から「#Data4BlackLives」に至る複数の草の根運動が、警察による顔認識の利用などコンピューター技術の利用方法のいくつかを法的に制限するよう要求しました。