汎用AIの開発事業者に課せられる義務

平:ここまでは従来型の、用途が限定されたAIに対する規定内容です。一方、新たに登場したChatGPTなどの生成AIは、インターネット上の膨大なデータを学習して、極めて高度化しています。

 生成AIはいろんなタイプのデータをインプットもアウトプットもできるため、大まかに言えば、何でもできてしまう。使い方によっては、極めて高いリスクのものもあるし、それほどではないものもある。そこに大きな違いがあります。

──生成AIの登場の前と後で規制の概念が変わったのですか?

平:生成AIは、この法案の検討期間中に登場しました。その対応として、「汎用目的AI」という別項目を新たに設けて説明しています。そして悪用された場合、甚大な悪影響が出てしまう「汎用目的AI」のリスクを「システミック・リスク」と呼んでいます。

「システミック・リスク」がある「汎用目的AI」を開発する事業者は、EUの当局に届け出をしなければならず、トラブルがあった場合は、迅速な対応と報告が必要であるなど、より厳しい規制を設けています。

「システミック・リスク」にはかなり幅があります。「汎用目的AI」を使い、偽情報を作成させて混乱させるといったことから、サイバー攻撃への使用や兵器の開発まで、そのリスクは様々です。ですから、リスク評価やリスク対策を事前に行うこと、そのリスクを文書化することなどが事業者に求められます。

 また、生成AIの文脈でよく話題になるのが、本物と見分けがつかない画像や動画を作成する、いわゆるディープフェイクスです。現に著名人などの顔が勝手に使われ、その人が実際にはしていないことを言ったり行ったりしているかのような偽の画像や動画は出回っており、社会問題化しています。

 制作者にだます意図があるか否かにかかわらず、ディープフェイクスの画像、動画、音声に関しては、生成AIで作ったものだという情報開示・明記が必要だと規定されています。

【関連記事】
全米が震撼!Xで拡散された超大物アイドルのディープフェイク・ポルノの衝撃(JBpress)