2022年8月にStability AIが画像生成AI「Stable Diffusion」を、2022年11月にOpenAIが文章生成AI「ChatGPT」を公開した。
これにより、生成AIの利活用は新たな次元に突入すると同時に、偽情報の拡散や著作権侵害など今まであまり想定されていなかったリスクに直面するようになった。
生成AIで特に注目すべき点は、動画の生成分野でAIが急速に進化していることである。
著名人を騙った「偽動画」は、「ディープフェイク動画」と呼ばれており、インターネットを使いこなしている人でも見破るのが難しいほどに精巧なものが登場している。
ディープフェイクとは、「ディープラーニング」と「フェイク」を組み合わせた造語で、AIを用いて人物の動画や音声を人工的に合成する処理技術を指す。
この技術を使うと、コンテンツ中の人物の言動を改変して意図した通りに見せかけることができる。
ディープフェイクはますます利用しやすく、見破りにくくなっており、政治や選挙への干渉は、社会に大きな影響を及ぼすと見られている。
また、ディープフェイク動画の中には、外国の政府機関による宣伝工作であると見られるものがある。
宣伝工作の本旨は、「相手に影響を与え、我の意図した方向に誘導する」ことである。
外国の政府機関(情報機関)による宣伝工作は、明白な国家安全保障上の脅威であると共に敵対的行為であるともいえる。ゆえに、このような行為を取り締まる体制の整備が急務である。詳細は後述する。
ところで、2023年7月18日、国連のアントニオ・グテーレス事務総長は、AIをテーマにした初めての国連安保理の会合で次のように述べ、リスクを管理するための国際的なルール作りが必要だと訴えた。
「生成AIは善と悪の両面で非常に大きな可能性がある。いまリスクに対処しなければ我々は未来の世代に対する責任を放棄することになる」
さて、話は変わるが、AIの急速な進化は我々に「技術的特異点(シンギュラリティ)」の到来を予感させるものである。
シンギュラリティとはAIの能力が人類の能力を上回る時点のことを意味する。
米国の発明家・思想家・未来学者であるレイモンド・カーツワイル氏が2005年に発刊した「The Singularity Is Near」の中で、シンギュラリティは2045年に到来すると予測した。
これをを受けて、AIの研究者のみならず科学者や実業家などの間では、「シンギュラリティ」についての議論がなされている。
AIに潜む危険性について、宇宙物理学者のスティーヴン・ホーキング博士は次のような警告を残している。
「我々はランプの魔神ジーニーを解き放ってしまいました。もはや後戻りはできません」
「AIの開発は進めていく必要がありますが、危険とまさに隣り合わせであることを心にとめておかなくてはなりません」
「私は、AIが完全に人間の代わりになるのではないかと恐れています」
(出典:WIRED「亡くなったホーキング博士が、『人類の未来』について語っていたこと」2018年03月14日)
また、テスラとX(旧ツイッター)のCEO(最高経営責任者)であるイーロン・マスク氏は2023年4月15日、AI研究者やエンジニアのチームを組織し、新しいAIスタートアップを立ち上げる計画を明らかにした。
その一方で、AIが悪意を持って開発されるか、悪い手に渡ると破壊的な可能性があることを繰り返し強調している。
マスク氏は、FOXのインタビューで、AIは不適切な航空機設計や生産保守よりも危険であると述べた。
低確率であることを認めつつ、「その確率がどんなに小さくとも、ゼロではない。文明の破壊の可能性がある」と述べている。
(出典:コンテングラフジャパン「イーロン・マスク氏がAIが文明を破壊する可能性があると警告」2023年04月17日 )
一方で、シンギュラリティは来ないと断言する専門家もいる。
筆者は、1968年公開のSF映画「2001年宇宙の旅」に登場する架空のAIを備えたコンピューターシステム「HAL(ハル) 9000」のように人間に反乱を起こすAIが近い将来に登場するかもしれないと思っている。
ゆえに、人間は人間の知能を超えたAIの出現を想定し、AIの脅威や危険性を認識し、あくまでも人間がAIをコントロールするまたはAIのリスクを管理する手立てを講じておく必要があることを決して忘れてはいけない。
以下、初めにディープフェイク動画・音声を作成・拡散する目的とその事例について述べる。
次にディープフェイク画像を見破る方法・技術について述べる。最後に個人がフェイクニュースを見破る方法について述べる。