自動運転車による「データ暴走事故」も考えられるという(写真:新華社/共同通信イメージズ)自動運転トラックによる「データ暴走事故」も考えられるという(写真:新華社/共同通信イメージズ)※写真はイメージです

 OpenAIが2022年11月にChatGPTを公開して以降、さまざまな場面で活用されている生成AI。その実力を理解してもらうため、筆者の監修の下、ChatGPT Proの力を借りて「2025年に生成AIをめぐって起こり得る5つの出来事」をまとめた(詳細は記事の末尾に)。

 

 実際の未来はこれとは異なる可能性が大いにあることをお断りしておきたいが、生成AIの急速な発展や普及のトレンドを踏まえると、ここに挙げるような「起こりそうなシナリオ」のいくつかは十分に想定されうる。

 2025年という近未来を想像することは、私たちがテクノロジーとどのように共存し、社会を形成していくかを考えるうえで有益な示唆をもたらすはずだ。(小林 啓倫:経営コンサルタント)

1. フェイク生成技術の高精度化と「メディア・ブラックアウト事件」

 2025年に入った途端、生成AIを使ったフェイクコンテンツがさらに巧妙化し、「視覚や聴覚だけでは判別不可能」というレベルにまで到達したという報告が相次ぐようになった。デマや虚偽情報、捏造された動画・音声が各種SNSを中心に爆発的に流布し、社会的混乱を引き起こすケースが増加したのだ。

 たとえば、ある政治家の演説をそっくり真似した音声や、映像合成による“証拠映像”が拡散され、多くの市民がそれを本物と信じてしまうような出来事が起こった。

 とりわけ象徴的だったのが、欧米の一部ネットコミュニティで煽られた「メディア・ブラックアウト事件」である。

 これは、あるSNSアカウントが「特定の国が故意に停電を起こし、インターネット接続を遮断している」というデマを発端に、疑心暗鬼に駆られた人々が次々と誤報を共有した事件だ。

 巧妙な生成AIによる“停電の街”の映像がリアルタイムで投稿されると、数多くの人がそれを信じ、あたかも大規模な情報封鎖が行われているかのように錯覚に陥った。結果として、多数の人々が外出を控え、学校や企業が休止状態に追い込まれ、経済活動が一時的に停滞するまでに至った。

 実際にはそのような事実はなかったのだが、リアルタイム偽映像生成の精度は圧倒的で、専門家でも短時間で真偽を判定できず、「画像がウソなら、動画もウソ。もう何が本当かわからない」という声が広くあがった。

 これをきっかけに、世界各国のメディア・リテラシー向上の取り組みが一段と強化されることとなった。各国政府は、AIによるコンテンツ解析技術を使い「ファクトチェック」を自動化しようと躍起になり、SNS企業も「視聴前の事実確認」を促すポップアップや警告ラベルを強化していく。

 しかし、いたちごっこと言われるように、生成AIの精度が高まるほどフェイクのクオリティも増していき、その対策の難しさが浮き彫りになるのである。