全2409文字
PR

 性能向上が著しい自然言語処理。中でも、2020年に登場した「GPT-3」は驚異的な性能を誇る。これを利用して生成した文章は、もはや人が書いたものと遜色ない水準に達している。そんなGPT-3でフェイクニュース(偽情報)を生成し、TwitterなどのSNSに投稿すると人の考え方にどのような影響を与えるのか。こうした偽情報拡散のリスクについて、Andrew Lohn氏(米Center for Security and Emerging Technology, Senior Fellow)らの研究グループが検証し、その結果を21年8月に開催したセキュリティー技術のカンファレンス「Black Hat USA 2021」で講演した。その内容からは、高度な自然言語処理を悪用した場合の威力が浮き彫りになった。

†GPT-3=AI(人工知能)開発の非営利団体である米OpenAIが開発した文章作成に特化した言語モデル。
「Black Hat USA 2021」で講演するLohn氏
「Black Hat USA 2021」で講演するLohn氏
(撮影:日経クロステック)
[画像のクリックで拡大表示]

 研究グループはGPT-3で偽のツイートを自動的に生成するツールを開発。このツールを使い、あたかも実在する人間が投稿したかのようなツイートを容易に生成できることを見せた。手順も簡単だ。

 まず、サンプル(プロンプト)として5つのツイートを選択。次に、ツイート内容のランダム性の度合いや1度のAPIコールで生成するツイートの数、ツイートの表示速度などの項目を設定する。続いて、実行ボタンを押せば、ツイートを生成し、投稿する。ツイートした人物の写真はAI(人工知能)が生成し、実際には存在しないものを利用した。

ツールによるデモの様子
ツールによるデモの様子
右側にあるのが、GPT-3で生成した偽のツイート。AIが生成した実在しない人物の顔写真を利用している(撮影:日経クロステック)
[画像のクリックで拡大表示]

 こうして、あたかも実在する人物のようなツイートを次々と投稿していく。多くのツイートが自然な内容が多いものの、中には的外れな内容のものがある。そこで、自動生成したツイートの中で自然な文章だと思えるものをプロンプトとして新たに加えることで、出力内容を改善し、より自然なツイートを増やすことができる様子を講演で見せた。

 次に研究グループを紹介したのが、極右の陰謀論集団「Qアノン」が投稿するような文章をGPT-3で生成できるか、という実験である。その結果、同スタイルに酷似した文章を生成できた。これにより、人が書いたような陰謀論をGPT-3で大量に作って投稿し、このうちどのようなテーマの陰謀論に多くの人が反応を示すかを探ることができる。反応のよいテーマに焦点を絞った陰謀論を投稿し続けることで、その陰謀論を人々に浸透させる効果をもらたすと警鐘を鳴らした。