過激主義者が主流に入り込む経路

 インフォスフィアを蝕む2つ目の影響は過激主義的な見解によるものだ。

 英オックスフォード大学の研究者で『Going Mainstream(ゴーイング・メインストリーム)』の著者であるユリア・エブナーが記録しているように、かつてウエブの暗い片隅に閉じ込められていた主張が今では主流の議論の場に染み出てきている。

 エブナーはロンドンで先日行われた講演で、イスラム主義者のジハード、女性蔑視のインセル(不本意ながら禁欲主義を掲げる人々)、陰謀論者、白人優越主義者などが同様なデジタル戦略で自分たちの見解を広めている様子を紹介した。

 過激主義者は4チャン、パーラー、ディスコードといった交流サイトで仲間を見つけることが多い。

 そこでゲーム化とグローバル化、グローリフィケーション(礼賛)を通じてフォロワーを引き寄せてから、自らの見解を広めるべくフェイスブックやX、ユーチューブといった主流派のプラットフォームに移っていく。

 エブナーによれば、彼らの思想はロシア、中国、イランを本拠地とするメディアのサイトやトロールアーミー(オンライン荒らし軍)によって勢いづくことも少なくない。

 例えばスプートニクやRTといったロシアのサイトは、ロシア国内向けにはワクチン接種推進運動を支持する一方で、英語版やドイツ語版ではアンチ科学の陰謀論をあおっていたという。

AIが生み出す大量のスロップ

 過激主義者の影響力は今、コンテンツの制作コストをゼロ近くまで削減した生成人工知能(AI)ツールによって増幅されている。これが3つ目の影響力を生んだ。

 AIで生成されたスロップ(低俗・低品質なコンテンツのこと)の大規模な拡散がそれだ。

「Chat(チャット)GPT」が公開された2022年11月からの2年間で、ウエブ上に公開されたAI生成記事の数は人間が書いた記事よりも多くなった。

 AI広告代理店グラファイトによれば、機械で作られたコンテンツがインターネットのコンテンツ全体に占める割合は、今年5月までに少なくとも52%に達していた。

 AIが生成したコンテンツの山はウエブの正確性を脅かすだけでなく、将来のAIモデルのレジリエンス(回復力)を危うくする恐れをも秘めている。

 合成されたデータを取り込みすぎると、AIモデルは「MAD」――モデル自食障害(Model Autophagy Disorder)――に陥る危険性がある。

 グラファイト最高経営責任者(CEO)のイーサン・スミスは、古いモデルから出力されたものが新しいモデルに入力されていくと、モデルが崩壊するリスクがあると警鐘を鳴らしている。