全2009文字
PR

 米Google(グーグル)のAI(人工知能)研究部門が、AI倫理研究者の解雇を巡って大きく揺れている。BERTのような巨大な「言語モデル」が内包する問題点を指摘しようとした2人の女性研究者が、2020年12月と2021年2月に解雇された問題だ。「論文の社内検閲」に端を発した騒動に見えるが、AI倫理を巡るより根深い社内対立が透けて見える。

 問題が明らかになったのは2020年12月2月(米国時間)のことだ。グーグルでAI倫理の研究チームを率いるTimnit Gebru(ティムニット・ゲブル)氏がTwitterでグーグルから解雇された、と打ち明けたのだ。ゲブル氏はその数カ月前、BERTのような巨大言語モデルに関する様々な問題点を指摘する論文を、米ワシントン大学の研究者らと共同で執筆していた。その論文がグーグル社内のレビューで「社外に公開できない」と判断され、内容の修正などを求められた。これにゲブル氏は反発していた。

論文が指摘したのは「AIのバイアス」問題

 ゲブル氏らによる論文「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」はワシントン大学のWebサイトで公開されている。そこで指摘した問題点は、「巨大言語モデルは学習に膨大な電力を消費しており、環境に大きな負荷を与えている」「学習データに存在する偏見(バイアス)によって、AIにもバイアスが生じている」「言語モデルはそれらしく見える文章を確率的に生成しているだけで、言語理解はしていない」といったもの。AI分野ではよく知られた問題点であり、妥当な内容である。

 なぜグーグルはこの論文の外部公開に難色を示したのか。グーグルにおけるAI研究部門のトップであるJeff Dean(ジェフ・ディーン)氏は12月4日(米国時間)にTwitterで声明を発表し、ゲブル氏らの論文は「機械学習に必要となる電力をより少なくする研究努力について触れていない」「言語モデルの偏見を改善するための研究努力について触れていない」ことから、社内レビューを通らなかったのだと弁明した。

 しかしゲブル氏や、論文の共著者の1人で2021年2月にグーグルを解雇されたMargaret Mitchell(マーガレット・ミッチェル)氏の主張を見ていくと、彼女らと会社は全く異なる観点で対立していたことが浮かび上がってくる。

 ゲブル氏やミッチェル氏は、AIのバイアスを解消するには「バイアスの無い組織、プロセスによってAIを開発する必要がある」という考え方を持っている。現在のAIをけん引する巨大IT企業(ビッグテック)の研究開発部門は、白人やアジア系の男性が極端に多く、女性やアジア系以外の有色人種が少ない。現在のAIに性別や人種に関するバイアスが存在するのは、それを開発する組織にそうした偏りがあるからだ、という考え方だ。