トランプ大統領に関連した刑事裁判でも事故が!
ロイター通信によれば、米国では過去2年で少なくとも7件、裁判所が弁護士によるAI出力の誤引用を問題視したケースが発生している。たとえば、上記の2つのケース以外に、次のような事件が起きていることが紹介されている。
○ワイオミング州(2023年): 全米規模の法律事務所モーガン&モーガンの弁護士が、ウォルマートを相手取った製品欠陥訴訟の準備書面作成でAIを利用し、架空の判例を引用。担当判事は制裁を検討すると警告し、弁護士は法廷書面でAIがハルシネーションを起こしたせいだと謝罪する事態となった。
○ニューヨーク州(2023年): 当時、元大統領だったドナルド・トランプ氏の元顧問弁護士マイケル・コーエンの刑事事件で、コーエン自身がGoogleのAIチャットボット「Bard」から入手したという判例を担当弁護士に伝えたところ、それが実在しないものだったにもかかわらず弁護士が誤って提出してしまう事態が発生。判事は制裁こそ科さなかったが、この出来事を「極めて当惑すべき事態」と評している。
○テキサス州(2024年): 連邦地裁に提起された不当解雇訴訟で、原告側弁護士が存在しない判例や判決文の引用を含む書面を提出し、2000ドルの罰金と「生成AIの法律分野での活用」に関する研修受講を命じられる制裁処分を受けた。判事は、弁護士がChatGPTの出力を検証せず使用したことを問題視し、再発防止のため教育的措置として処分した。
ChatGPTが登場して間もない2023年であれば、ハルシネーションで出力された存在しない情報を鵜呑みにしてしまうというのも、「新しい技術なので慣れていないのは仕方ない」と擁護できただろう。
だが、シュワルツ弁護士の事件から2年近くが経過しようとしているにもかかわらず、いまだに同様のミスが繰り返されてしまうというのはどういうことなのだろうか。
弁護士といえば、専門職の中でも特に高度で幅広い知識が要求される職業だ。それに従事する人々ですら、生成AI活用で失敗してしまうのだから、私たちはそれを他山の石とすべきだろう。
では、同じ失敗が繰り返される原因として、「生成AIにおけるハルシネーション問題がいまだに解決されず、誤回答が出力されるケースが後を絶たない」という以外に何が考えられるのだろうか。