画像AIを悪用した犯罪が増えている(写真:Thongden Studio/shutterstock)画像AIを悪用した犯罪が増えている(写真:Thongden Studio/shutterstock)
  • 今年4月、英国の裁判所が児童のわいせつ画像を保有していた男に生成AIツールの使用やアクセスを禁じる判決を言い渡した。
  • その背景には、画像AIで児童ポルノを生成する小児性愛者の存在がある。ダークウェブでは、小児性愛者に対して犯罪を指南するマニュアルまでやり取りされている。
  • 性犯罪や選挙妨害など悪質性の高い用途で生成AIを活用することについては、技術の開発者と利用者の両面から厳しく制限されることになるだろう。

(小林 啓倫:経営コンサルタント)

英国の裁判所が下した画期的な判断

 今年4月、英国のプール治安判事裁判所が、同国のアンソニー・ドーヴァーという48歳の男に画期的な判決を言い渡した。それは今後5年間、警察の事前の許可を得ることなく、生成AIツールを「使用したり、アクセスしたりしないこと」というものだった。

 なぜ生成AIの使用を裁判所が禁止するに至ったのか、その理由は、彼が犯した犯罪を知れば納得するだろう。この男は1000枚以上もの児童のわいせつ画像を生成し、保有していたのである。

 この件について報じた英ガーディアン紙によれば、英国ではCSAM(Child Sexual Abuse Materialの頭文字を取ったもので、児童の性的虐待画像を意味する)を作成、所持、共有すること自体、1990年代から施行されている法律で既に違法とされていたとのこと。当然ながら「本物の」画像も違法だが、「疑似的な」画像も禁じられている。

 従来、この法律はPhotoshopなどの画像加工ソフトウェアを使用して作成された、本物そっくりの画像が関わる犯罪を起訴するために使用されてきたそうだ。

Sex offender banned from using AI tools in landmark UK case(The Guardian)

 今回の法律では、ドーヴァーは罰金200ポンドに加えて、画像生成AIであるStable Diffusionの使用が禁じられた。

 BBCの報道によれば、最近Stable DiffusionがCSAMの生成に利用されるケースが後を絶たず、既に同AIで生成されたと見られる違法画像が大量に確認されているとのこと。その規模は「産業」と呼べるほどで、Pixivなど日本の画像共有サイトもその拡散に利用されていることが報じられている。

Illegal trade in AI child sex abuse images exposed(BBC)

 また最近では、そうした画像が増えすぎたことで、「本物の」CSAMを見つけるのが困難になってきたと指摘されている。この点が問題なのは、本当の被害者がいる事件の摘発が難しくなってしまうためだ。

 生成AIの性能が向上しすぎた結果、ある画像がリアルに撮影されたのか、それとも生成AIが出力したものかを見分けるのは、別のAIの力を借りたとしても難しい作業となっている。生成AIが大量のCSAMを生成してしまうと、実在の児童が被害者となっている事件の確認が遅れ、彼らの救済まで遅くなってしまうかもしれないのだ。

 ここまでの解説で既に、ドーヴァーが生成AIの使用を禁じられたのも納得という方が多いのではないだろうか。これで終わればまだ良いのだが、実は残念なことに、犯罪者たちはさらに恐ろしい形で生成AIを利用するようになっている。