- 2024年の米大統領選挙では、生成AIによる虚偽情報で大混乱するという見方が広がっている。選挙へのAI利用にルール策定が必要だと訴える声も。
- AIが生成する画像やテキストは膨大で見極めることが難しい。自陣営の意見に合う文書の発表や拡散で、有権者を誘導できる可能性が高い。
- AIによるプロパガンダや政治的説得から身を守るためにはどうすればいいのだろうか。
(木村 優志:Convergence Lab.株式会社 代表取締役CEO)
「ナイラ証言」と呼ばれる事件をご存知の方も多いだろう。1990年、イラク軍がクウェートに侵攻した後、「ナイラ」という少女がアメリカ議会人権委員会で以下のような証言をした。
「イラク軍が爆弾や銃で民衆を襲撃しています。また、すべての病院施設に押し入り、新生児を連れ出しています。生命維持装置は切られています。抵抗したり、クウェート軍や警察と一緒にいる所が見つかったりすれば、拷問を受けかねません」
この後、アメリカを中心にイラク攻撃世論が形成され、アメリカは湾岸戦争に突入することになる。
しかし、この証言は捏造であった。
「ナイラ」はクウェート駐米大使の娘で、証言はクウェート・アメリカ両政府により企てられたものだった。
これまでも、様々な方法でプロパガンダは有権者の投票行動に影響を与えてきた。中でも、虚偽の情報に基づくプロパガンダは人々に誤った判断をさせる。
次回の選挙では、プロパガンダにAIが利用され、甚大な影響をもたらすだろう。
これは、私だけの意見ではない。Googleの元CEO、エリック・シュミットは米CNBCのインタビューで、2024年のアメリカ大統領選挙はAIによって生成された虚偽情報で混乱するだろうと語っている。
ChatGPTを作ったOpenAIのCEO、サム・アルトマンも、選挙へのAI利用にルール策定が必要だとアメリカ上院議会委員会で証言している。
AIが選挙などへのプロパガンダに利用される未来は、すぐそこまで来ている。
◎AI Will Make 2024 Election A ‘Mess,’ Billionaire Ex-Google Chief Schmidt Says(Forbes)
◎OpenAI chief concerned about AI being used to compromise elections(Reuters)
以下では、AIがどのようにプロパガンダに利用され得るか、それを防ぐにはどうすれば良いのかを議論していく。