- 弁護士資格を持たない人物が生成AIを用いて法的文書を作成、依頼人の代理として法廷に立つという事件がアメリカで起きた。
- この事件は判事が生成AIの活用を疑ったことで露見したが、専門知識を提供するAIサービスの危険性が浮き彫りになった。
- 専門知識へのアクセスが民主化される中で、専門家の存在意義やAIの適切な使用方法に深い問いを投げかけている。
(小林 啓倫:経営コンサルタント)
2023年6月、米ニューヨーク州の裁判所で起きた出来事は、法曹界に衝撃を与えた。
ベテラン弁護士として活動していたスティーブン・シュワルツという男性が、ChatGPTを使って作成した法的文書を裁判所に提出したのだが、そこには存在しない判例が6件も引用されていたのである。
いわゆる「ハルシネーション(英語で「幻覚」を意味する言葉で、生成AIが事実でないことをさも事実であるかのように回答してしまう現象)」をChatGPTが起こし、間違った情報を回答していたにもかかわらず、シュワルツ弁護士がそれに気づかず使用してしまっていたのだ。
本連載でもレポートしたこの事件は、AIの限界と、それを使用する人間の責任について多くの議論を巻き起こした。
◎生成AIは時に“嘘”をつく、「GPTによる死」を避けるために人間がすべきこと(JBpress)
それから1年以上が経過し、ChatGPTを始めとした生成AIは、急速な性能の向上を見せている。それに伴い、生成AIと専門家・専門知識の関係性も、新たな局面を見せようとしている。
サウスカロライナ州で起きた偽弁護士事件
2023年7月、今度は米サウスカロライナ州で驚くべき事件が明らかになった。ネイサン・チェンバーズという男性が弁護士資格を持たないにもかかわらず、複数の裁判所で実際の依頼人を代理して弁護活動を行っていたのだ。
そして、彼の活動を可能にした裏側に、生成AIの存在があるのではないかという疑惑が持たれているのである。