なぜ弁護士は生成AIの誤用事件を繰り返してしまうのか?(筆者がChatGPTで生成)
(小林 啓倫:経営コンサルタント)
弁護士が「言い訳」にも生成AIを使用
2025年10月、ニューヨーク州最高裁判所で前代未聞の事件が起きていたことが報じられた。ニュージャージー州の弁護士マイケル・フォーテが訴訟で使用する文書を生成AIで作成し、そこに偽の判例が含まれていたことが発覚したというのがそもそもの発端だ。
ただ、問題はそこで終わらなかった。
この訴訟における相手側の弁護士が、フォーテに対する制裁を求める申し立てを提出。それを受けて、フォーテはなぜ生成AIを使用したのかを説明する文書を提出したのだが、その書面にも生成AIによる誤情報が大量に含まれていたのである。
フォーテは当初、AIの使用を否定も肯定もせず、誤った引用を「正確な法的原則を無害に言い換えたもの」として正当化しようとしていた。また「AIを使用したが、精査されていないAIは使用していない」と主張する一方で、責任の一部をスタッフに転嫁しようとするなど、一貫性のない釈明をした。
この申し立てを担当したニューヨーク州のジョエル・コーエン判事は、判決文の中で次のように述べている。「AIの使用自体が問題なのではない。問題は、弁護士が裁判所への事実関係および法的陳述の正確性を確保する責任を放棄した場合に生じる」。
最初の書面で発覚した誤りは数件だったが、制裁の申し立てに反論する書面では、その倍以上の偽引用が含まれていたという。
判例そのものが存在しないケースや、判例は存在するがそこには存在しない文章の引用、そして主張とは全く関係のない判例の引用など、いわゆる「ハルシネーション(生成AIが事実でないことを事実として回答してしまう現象)」のオンパレードだった。
コーエン判事は最終的に、原告側の制裁申立を認めた。そしてニュージャージー州弁護士倫理局に、この件の関連情報を提出するよう指示しており、弁護士会からさらなる懲戒が課される可能性もある。