SNSにあふれるデマや陰謀論に対抗するため、それらに対して反論する「反論ボット」の活用が検討されている。もっとも、米国の最新研究では、反論ボットによるカウンタースピーチが逆効果になりかねないという指摘が挙がっている。AIによる陰謀論対策の現状とは。(小林 啓倫:経営コンサルタント)
選挙関連ツイートの約20%がボット
先日この連載で、「DebunkBot(反論ボット)」というAIアプリケーションの研究が進んでいることを紹介した。詳しくは元記事を参照していただければと思うが、簡単にどのようなものか振り返っておこう。
「反論ボット」が反論するもの、それはネット上のデマや陰謀論だ。いまや日本の選挙においてもさまざまな偽情報がネット上で飛び交う時代になってしまったが、その影響力は無視できず、選挙結果を左右するほどにまで至っている。
特にSNS上で発信されるデマや陰謀論については、自動的に一定のメッセージを投稿するソフトウェア、いわゆる「ボット」が活用されているとの指摘がある。
たとえば、2016年の米大統領選を調査した結果によれば、ツイッター(現X)における選挙関連ツイートの約20%がボットによって生成されたもので、約40万のボットアカウントが400万件以上のツイートを投稿していた。
これらのボットは、一定の政治的目的に基づき自動的にツイートを投稿するもので、特定の候補者を支持する投稿や対立候補を攻撃する投稿を行っていた。このような投稿により、オンライン上の議論の流れが操作され、それがマスメディアの報道にも影響を及ぼしたことで、選挙結果に少なからず影響を与えたと考えられている。
このように、偽情報が自動的に、かつ大量にSNS上に投稿されるとあっては、それにいちいち人力で反論するというのは難しい。また、陰謀論に適時反論するというのは労力のかかる作業であり、一般の人々が自主的に、ボランティアで反論活動に従事することを期待するのも現実的ではない。
そこで陰謀論を発信する側だけでなく、それに反論する側でもボットを活用しよう、という発想が出てきたわけだ。
特に最近の生成AIの発展と普及により、あたかも人間が書いたかのように感じられる反論を、文脈に応じて簡単に生成できるようになった。それを適時かつ自動的にネット上に投稿していけば、効率的に陰謀論の拡散を抑制できるだろう。
「DebunkBot」はまさにそのためのボットで、GPT-4 Turbo(ChatGPTの頭脳となっているAIモデルの一種)を使用し、さまざまな陰謀論に合わせてカスタマイズされた反論を行うよう設計されている。
開発したのは米MIT(マサチューセッツ工科大学)の研究者らで、彼らは「陰謀論を信じている」と自己申告してきた被験者2190人に対して、実際にDebunkBotとチャットさせるという実験を行った。するとチャットの前後で、被験者の陰謀論に対する信念が約20%減少し、その効果は少なくとも2か月間持続することが確認されたのである。
このように一定の効果が確認されたDebunkBotだが、この研究結果をまとめた論文の発表以来、賛否両論の声が上がっている。