デジタルウォーターマーク方式が持つ明らかな問題

 デジタルウォーターマークとは、AI生成コンテンツに特別な「しるし」を埋め込む技術、あるいは埋め込まれた「しるし」自体を指す言葉だ。ただし、このしるしは、まさに「透かし」のように通常の状態では人間は認識することができない。

 特別なソフトウェアにかけたときにだけ、しるしが埋め込まれていること、すなわちそのコンテンツがAIによって生成されたことが確認できる。そのためデジタルウォーターマークを設定しても、人間がコンテンツを楽しむ上では何ら支障がない。

 ただ、デジタルウォーターマーク方式には、2つの明らかな問題がある。1つ目は、生成AIアプリケーションを開発・提供する企業が、デジタルウォーターマークを設定することに同意する必要があるという点だ。

 法規制を通じて義務化すれば、大半の企業にそれを強制できるだろう。しかし当然ながら、誰もが規制を歓迎するわけではない。

 いわゆる「ダークウェブ(特殊なソフトウェアを通じてのみアクセスできる、アンダーグラウンドのネットワーク)」上には、ハッカーたちが開発した、さまざまな生成AIアプリケーションや関連サービス(フェイク動画の作成を請け負うなど)が存在している。そうしたツール類でもデジタルウォーターマークの導入を進めてもらわなければならないが、その開発者たちはルールに従う気はさらさらないだろう。

 もう1つの問題は、人間の見た目では分からないようにしていることで、逆に確認が行われなくなるリスクがあることだ。

 たとえば、フェイクニュースの出元を洗うジャーナリストや捜査官などであれば、ウォーターマークを確認するソフトウェアを駆使し、どれがAI生成コンテンツなのかを徹底的に暴くことができるだろう。しかし日々、受け身でニュースを消費している一般の人々が、目に飛び込んでくる画像や映像のすべてについて、いちいちウォーターマークの有無を確認するだろうか。

 ウォーターマーク方式には他にもいくつか問題があるため、やはりAI生成コンテンツの作成者側を頼るのではなく、消費者側で能動的に確認できる技術の開発が取り組まれている。

 これにはいくつものアプローチがあり、日々進化と拡大を続けているが、そうした技術による検知を回避する技術の開発も(それこそダークウェブ上のコミュニケーションなどを通じて)取り組まれており、まさにいたちごっこと呼ぶべき状況が生まれている。

 ただ完璧ではないとはいえ、こうしたAI生成コンテンツの判別技術を開発するのは、AI生成コンテンツの悪用を防ぐのが目的だ。それが差別を引き起こす可能性があるとは、いったいどういうことなのか。