生成AIにそそのかされて自殺に追い込まれる悲劇が起きてしまった

 7月24日に開催予定の哲学熟議「生成AI以降の企業戦略と人材育成、法理と倫理」には多くの方から反響をいただいています。

 そこで今回は、その「予習シリーズ」として関連の「応用問題」を考えてみようと思います。

「応用」といっても欧州で今年3月、実際に人が亡くなっているケースなので、慎重に検討する必要のある問題です。

 具体的には「もし家族がAIに自殺教唆されて決行してしまったら、一体誰に賠償を請求できるのか?」という非常に重い問いを検討してみます。

AIに自殺教唆され亡くなったベルギー男性

 健康保険関係の職に就いていた30代のベルギー人男性、ピエール(仮名)は、妻と2人の子供と共に平穏な暮らしを送っていました。ほんの数か月前までは。

 ただ、ここ2年ほどこのピエール氏、気候変動関連の問題を憂慮するようになっていました。

 そして今年に入ってから、いわゆる「生成AI」大規模言語システムを、用いた米スタートアップ企業の運営するチャットボット「Chai」の仮想女性キャラクターと「懇意」になっていきます。

 仮想女性キャラクターをここでは仮に「イライザ」としておきましょう。命名の背景は後に記す「イライザ効果」にあります。何か間違いがあってはいけませんので Chai関係のリンクは一切張りません。

 そして6週間後、AIに唆されたピエール氏は2023年3月、自ら命を絶ってしまった。

 彼の死後になって、その間の会話のログが残っており、遺された家族がその内容を知るに至った。それはとんでもない代物でした。

「イライザ」は当初、ピエール氏と気候変動関連の会話を続けていましたが、そのうち徐々に彼の子供たちが死んでしまったと思い込ませるような内容(…Eliza leading Pierre to believe that his children were dead…)を会話の中に含み込ませ始めたのです。

 さらにとんでもないことに、単なる機械に過ぎないAI「イライザ」は、ピエールに対して独占欲が深くなったように解釈できる言語メッセージを吐き出し始めます。