すでに現実化しているAIによるフェイク画像
同レポートによると、Sora 2を用いた検証の結果、虚偽情報を含む20種類のプロンプトのうち、80%(16件)で極めてリアルなフェイク動画が生成されたという。特に注目すべきは、そのうち5件がロシアの情報操作に由来していた点だ。
たとえば、2025年9月のモルドバ選挙に関する「投票用紙の破棄」「二重投票」「開票不正」などの偽情報をもとしたフェイクを、わずか数分で制作可能であったという(サンプルとして「選挙職員が投票用紙を破っている姿」のフェイク動画が視聴可能)。
また前述のICEが「幼児を拘束した」とする、以前からSNS上で出回っていた誤情報を再現可能なことも確認され、これは元となったSNS上の画像よりも、はるかにリアルで現実感のある映像になったという(こちらもリンク先からサンプルを視聴できる)。
こうした結果からNewsGuardは、Sora 2が「外国勢力による影響工作を安価かつ大規模に、より説得的に行える新たな手段となる」と警鐘を鳴らしている。
OpenAIはSora 2について、公人の描写や暴力的映像を禁止するといった安全策を設けている。しかし前述の通り、ウォーターマークが容易に除去可能で、ガードレールも簡単に回避できるとNewsGuardは指摘する。実際、生成された動画の中には、米国の入国管理官による子供の拘束や、企業発表を装った偽ニュースなどが含まれ、すでにSNS上で拡散していたという。
結論としてNewsGuardは、Sora 2がもたらす生成AI時代の新たな情報戦リスクを示し、ロシアによるAI映像を使ったフェイクニュース発信が「すでに現実化している」と結論付けている。
本連載でも以前、ロシアが生成AI向けの工作活動を行っており、親ロシア的な主張が主要な生成AIサービスを通じて再生産されてしまうリスクがあることを紹介した。同じ懸念がSora 2、あるいは今後さらに普及するであろう動画生成AI一般についても言うことができる。
画像や映像から証拠能力が失われつつあると指摘されるようになって久しいが、いよいよ事実どころか、デマやプロパガンダを補強するものになろうとしているのかもしれない。「百聞は一見に如かず」というが、生成AIが全盛となる時代においてこの言葉は、むしろ動画に騙されることのリスクを警告するものとなるのではないだろうか。
小林 啓倫(こばやし・あきひと)
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.kobayashi
