「生成ゴースト」の何が問題か?
AIの研究開発を行うGoogle DeepMind社で研究員を務めるメレディス・モリスと、コロラド大学で情報科学の教授を務めるジェド・ブルベイカーは、「Generative Ghosts: Anticipating Benefits and Risks of AI Afterlives」という論文を共同で発表している。
彼らはAI、特に生成AIを使って故人を復活させる行為を「生成ゴースト(Generative Ghost)」と名付け、それに関していまどのような取り組みが行われているか、そこにどのようなリスクがあるのかということをこの論文でまとめた。
彼らは生成ゴーストに、一定の価値を認めている。たとえば、自分の価値観や知識を、デジタル遺産として後世に伝えられる(しかも、インタラクティブな形で)、故人の遺族に心理的な安らぎを提供できる、文化や歴史的知識の保存、教育的利用が可能になるといった具合だ。
一方で彼らは、遺族が生成ゴーストに過度に依存し、悲嘆からの回復を妨げる可能性がある、AIの乗っ取りや悪意のある利用(遺族に対して「もっと会話したければ課金してください」のような宣伝メッセージを、復活させた故人の姿を通じて伝えるなど)が行われるといったリスクも指摘している。
そうしたリスクの一つとして挙げられているのが「名誉リスク」、不正確または不要な情報が生成されることで故人の評判を損なうリスクだ。
その主な具体例として、プライバシーの侵害(生成ゴーストが、故人が生前に公表したくなかった真実の情報を意図せず暴露する)、ハルシネーションの発生(AIの技術的な失敗や悪意のある操作により、故人に関する虚偽の情報が生成される)、忠実性の低下(故人についての正確な情報を保持していても、その情報の一部が誤用されることで問題が発生する)といった点が挙げられている。
前述のジョージ・カーリンのケースでは、許可を得ていなかったという点が最大の問題ではあるものの、「忠実性の低下」の一例と考えられるだろう(彼の娘ケリーのコメントがそれを象徴している)。
Choiが行った故人のツーショット画像生成は、フェイクとして流布する意図はなかったとはいえ、故人がしていない行為をさせるという点で「ハルシネーションの発生」と捉えられるかもしれない。
「プライバシーの侵害」については、いまのところ具体的な事例は確認されていないが、エンタメ作品の中にこれを文章化・映像化したものが見られる。いつ現実になってもおかしくないと言えるだろう。