全1557文字
PR

 米グーグルのAI(人工知能)研究部門が、AI倫理研究者の解雇を巡って大きく揺れている。BERTのような巨大な「言語モデル」が内包する問題点を指摘しようとした2人の女性研究者が、2020年12月と2021年2月にそれぞれ解雇された問題だ。「論文の社内検閲」に端を発した騒動に見えるが、AI倫理を巡るより根深い社内対立が透けて見える。

 問題が明らかになったのは2020年12月2日(米国時間)のことだ。グーグルでAI倫理の研究チームを率いるティムニット・ゲブル氏がTwitterで「グーグルから解雇された」と打ち明けたのだ。ゲブル氏はその数カ月前、BERTのような巨大言語モデルに関する様々な問題点を指摘する論文を、米ワシントン大学の研究者らと共同で執筆していた。その論文がグーグル社内のレビューで「社外に公開できない」と判断され、内容の修正などを求められた。これにゲブル氏は反発していた。

論文が指摘した「AIのバイアス」

 ゲブル氏らの論文「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」はワシントン大学のWebサイトで公開されている。そこで指摘した問題点は「巨大言語モデルは学習に膨大な電力を消費しており、環境に大きな負荷を与えている」「学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている」などだ。AI分野ではよく知られた問題点であり、妥当な内容である。

 なぜグーグルはこの論文の外部公開に難色を示したのか。グーグルにおけるAI研究部門のトップであるジェフ・ディーン氏は12月4日(米国時間)にTwitterで声明を発表し、ゲブル氏らの論文は「機械学習に必要となる電力をより少なくする研究努力について触れていない」「言語モデルの偏見を改善するための研究努力について触れていない」ことから、社内レビューを通らなかったのだと弁明した。

 しかしゲブル氏や、論文の共著者で2021年2月にグーグルを解雇されたマーガレット・ミッチェル氏の主張を見ると、彼女らと会社は異なる観点で対立していたことが浮かび上がる。

 ゲブル氏やミッチェル氏は、AIのバイアスを解消するには「バイアスの無い組織、プロセスによってAIを開発する必要がある」との考え方を持つ。現在のAIをけん引する巨大IT企業(ビッグテック)の研究開発部門は、白人やアジア系の男性が極端に多く、女性やアジア系以外の有色人種が少ない。AIに性別や人種に関するバイアスが存在するのは、それを開発する組織に偏りがあるからだ、という考え方だ。

 この問題を是正するためにゲブル氏は、黒人のAI研究者を増やそうという運動「Black in AI」を主導してきた。またグーグル社内でも人種的、性別的な偏りを是正するよう訴えてきたようだ。こうした主張や活動を巡る対立が解雇を招いた、というのがゲブル氏やミッチェル氏の主張であった。

 それに対してグーグルはディーン氏の弁明からも分かるように、AIのバイアスは技術的に解決可能とのスタンスを取る。AIのバイアスは技術的な問題なのか、それとも制度的な問題なのか。この対立こそが、ゲブル氏らの解雇を巡る問題の奥底にある。

 AI倫理を巡っては、それを技術的な問題に閉じ込めようとするビッグテック側と、制度的な問題であるとする市民団体や政府による対立構造がある。ロイターなどの報道によれば、グーグルは2021年2月に開いた社員向けの全社集会で、社内における論文のレビュー体制を見直す方針を明らかにしたという。研究者が声を上げるのを認めるだけでなく、その声をどう反映させていくのか。多くのAI研究者がグーグルの行動を注視している。

中田 敦(なかだ・あつし)
日経クロステック/日経コンピュータ副編集長
中田 敦(なかだ・あつし) 1998年日経BP入社。2015年4月から19年3月までシリコンバレー支局長。著書に「クラウド大全」(共著)や「GE 巨人の復活」がある。