PR

 フェイスブックが約70万人のユーザーを実験台にして、ソーシャルネットワークで人の感情が伝播するかどうかを観察していた研究。これについて、集団訴訟にもなりかねないほどの批判が集まっている(ITproの関連記事:Facebookが約70万人のニュースフィードを操作、感情伝染の実験)。

 この実験は、フェイスブックの社内統計専門家と、コーネル大学、カリフォルニア大学サンフランシスコ校の研究者らが共同で行ったもの。ユーザーが目にするニュースフィードをポジティブなものにした場合とネガティブにした場合とに分け、その後、ユーザー自身がどんな投稿をするかを観察した。その結果、ポジティブなものを読んでいれば自分もポジティブな投稿をし、ネガティブな内容を目にした後は自分もネガティブになるということが分かったという。

 この実験が行われたのは、2012年1月の1週間。ソーシャルネットワークでは感情が伝染していくということを確認した研究として、先頃、その結果が米国科学アカデミーの論文として発表された。だが、結果自体は興味深いものの、「ユーザーを実験用マウスと思っているのか!」という批判が続出しているのである。

 この手の批判が出てくると、さて目くじらを立てるべきかどうかをまず考え込んでしまう。この批判は、新しいインターネットやソーシャルネットワーク時代においても、正当なのかを見定めなければならないからだ。

 フェイスブックのユーザーの扱い方に関しては、これまで別の批判があった。それは、「ユーザーを商品と思っているのか!」だった。こちらは、フェイスブックがユーザーのデータを売って収入にしていることに対して、かねてから持ち上がっているものだ。

 しかし、「無料で使えるサービスでは、あなた自身が商品」というネット時代の新格言にもあるように、われわれは無料と引き換えに自分のプライバシーの一部が商売に利用されていることに慣れっこになり、そして見て見ぬふりをしている。今回の実験マウスは、それとどう異なるのかである。

 法律、あるいは慣例上のルール違反はすでに指摘されている。

 フェイスブックでは、ユーザー登録する際に細々とした合意条件を連ねているが、その中に「実験材料として使われる」という項目がさらりと含まれている。したがって、フェイスブックを利用していれば、すでに実験マウスになることに合意しているということになる。

 しかし、こうした実験における相互の合意では、実験による悪影響が説明されなければならないのだが、今回はそれがなかった。だいたい、対象になったユーザーが、実験に利用されていること自体を知らされていないのだ。もし、「すでにウツ状態にあるユーザーにネガティブなフィードばかりが表示されたら、深刻な事態を引き起こし、ひょっとしたら殺人になったかもしれない」という非難も出ている。

 また、人が実験対象になる場合は第三者委員会による承認が必要なのだが、その委員会が十分な規模でなかったのではないかとも言われている。

 ルール違反を別としても、倫理上の懸念もあるだろう。なぜなら、この実験は心理操作にも匹敵するからだ。

 フェイスブックのニュースフィードを見る際、われわれは友達や間接的な知り合いが書き込んだ内容はニュートラルに表示されていると信じている。しかし実際には、すでにフェイスブックのアルゴリズムによって、目にすることができる全フィードにフィルターをかけ、もっとも関心を持ちそうな内容のものが選ばれているのだ。

 ただ、そのアルゴリズムがユーザー自身の性向や関心に基づいて組み立てられているのに対して、今回の実験で選抜された感情のポジティブ、ネガティブは、かなり恣意的な操作。ユーザーの心がもてあそばれたと受け取られても仕方がないだろう。