繰り返し示されると誰かに共有したくなる

 それは、2023年に発表された「The illusory truth effect leads to the spread of misinformation(真実性錯誤効果が誤情報の拡散をもたらす)」という論文で示されているものだ。

 執筆した研究者らは、参加者に対して健康や一般知識に関する複数の文章を見せ、それらを共有したいかどうかを尋ねるという実験を行った。この際、示された文章の半分は事実で、半分は誤情報だった。すると、繰り返し見せられた文章は、新しい文章よりも正確だと判断される傾向にあることが確認された。

 ここまでは前述の真実性錯誤効果と一緒なのだが、興味深いのはここからだ。繰り返し見せられた文章は、新しい文章よりも、「この情報を他の人と共有したい」と感じられる傾向が見られたのである。

 この「繰り返し示される情報は、真実だと感じられやすくなるだけでなく、より共有されやすくなる」という性質が、フェイクニュースが簡単に広まってしまう一因になっていると、研究者らは結論付けている。

 その情報がどこから、誰から発信されたものなのか、またそれ自体がどの程度の信憑性を持つのかは関係ない。とにかく繰り返し発信してしまえば、その情報は真実として受け入れられ、さらには共有されやすくなる。

 そう考えると、機械的に大量の情報を発信することのできるボットネットの脅威は、私たちが想像するよりもはるかに大きい。

 Xをアクティブに使っている人であれば、とても信じられないような荒唐無稽な情報を、数秒おきに繰り返し投稿するアカウントを目にしたことがあるだろう。そうしたボットを作成するコストはごく小さいものだとしても、なぜわざわざそんな手間のかかることをするのか、不思議に思ったことはないだろうか。

 そうしたボットを運用している人々がどこまで認識しているかはさておき、それが思った以上の効果をあげ得ることを、さまざまな実験結果が明らかにしているわけである。

 真実性錯誤効果という心のメカニズムから逃れるのは容易ではないが、少なくともXで目にした情報をリポストする前に、「本当にこれをシェアして良いのだろうか」と一度だけでも問い直してみること、他人の真実性錯誤効果を刺激しないようにするという必要最低限の対応が、SNSを使う私たちには求められているのかもしれない。

【小林啓倫の生成AI事件簿】
実は多かった生成AIのエロ使用
世界を一変させるChatGPT、企業や社会が認識していない静かな情報漏洩リスク
急成長「Sakana AI」とは何者?設立1年で評価額11億ドル越えユニコーンの革新性
英国総選挙に立候補したAIスティーブとは何者?政治の世界に入り始めたAIと、問われる政治家の存在意義
482億円相当が不正流出したDMMビットコインは氷山の一角、なぜ暗号資産取引所で流出事件が相次ぐのか?
生成AIに依存し過ぎると人間はバカになるのか?実験が明らかにした、生成AIを賢く使える人、使えない人
Googleは対話型AI「Bard」のミスで時価総額1000億ドルが吹き飛ぶ、現実味を帯びる生成AI倒産
“大川隆法化”し始めたAIサービス、「ゴーストAI」でリアルに実現するイタコ的世界
【生成AI事件簿】ヒトラーの人格を再現したチャットボットも、AIで強化される右派・保守系SNSのヤバすぎる言論空間
全米が震撼!Xで拡散された超大物アイドルのディープフェイク・ポルノの衝撃
倫理的・社会的に許容できない「人の死期を予測するAI」、実現は目と鼻の先
映像に証拠能力はなくなる?生成AIの登場で困難になる「事実」の把握
生成AIの幻覚を利用した犯罪をどう防ぐか、早急に必要なハルシネーション研究
(ほか多数)

【小林 啓倫】
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.kobayashi