つい個人情報を打ち明けてしまうチャットボットの特徴とは?(写真:Pingingz/shutterstock)
(小林 啓倫:経営コンサルタント)
チャットボットに個人情報を漏らす人々
生成AIの登場により、「AIと会話をする」という行為はすっかり一般的なものとなった。
筆者は先日テレビのニュース番組で、音声でやり取りできるチャットボットと会話する高齢者が紹介されているのを目にしたのだが、別に奇異なものを取り上げるというニュアンスではなく、新しいことにチャレンジする人という前向きなニュアンスで語られていた。
いまや無料、あるいはごくわずかな課金で高性能なチャットボットを利用できる時代であり、AIと会話することは広く定着しつつある。
ただ、そうなると懸念されるのが、つい個人情報を漏らしてしまうリスクだ。
2024年に発表されたある論文によれば、研究者らがWildChatデータセット(ユーザーの同意を得て収集された、ChatGPTとユーザーの間で発生した100万件にもおよぶ会話の履歴)を分析したところ、個人を特定できる情報(PII)や機密情報を頻繁に明かしてしまっている実態が浮き彫りになった。
PIIの場合、そうした個人的な情報をデータセットから取り除く処理が事前に行われていたにもかかわらず、履歴の70%以上に何らかのPIIが確認されたそうである。しかも、そうした情報を漏らす文脈ではない場面(翻訳やコーディングなど)でも、ユーザーたちが秘密を明かす傾向が確認された。
最近発表された別の研究によると、米国の大学生482人を対象にアンケートを行ったところ、学生の40.2%が「非常に頻繁」に、また38.9%が「時々」、生成AIを学習目的で利用していたそうである。
そして、生成AIを利用する理由として多くの学生が挙げていたのが、「AIは自分を評価・批判しないので安心して利用できる」や「匿名性があるので学生支援サービスとして有用」というものだった。
こうした感情を抱くのは、学生のユーザーに限られないだろう。「こんなことを聞いたらバカにされるのではないか」、あるいは「こんな話を友達にはできない」と悩んでいる人々にとって、AIは最適な相談相手になり得る。
そんな「AIには安心して語りかけることができる」という思いから、ついつい個人的なことを口にしてしまうのかもしれない。
もちろん、うっかり個人的なことを話してしまったからといって、それがネット上で即座にばら撒かれてしまうというわけではない。ただ過去には、ChatGPT上において、システムの不具合からユーザーの個人情報が流出するという事故も起きている。
また、生成AI系の主要サービスの多くが、ユーザーに対してよりカスタマイズされた経験を提供するという理由から、過去の会話履歴やユーザーに関する情報をできるだけ残しておこうという方向に進んでいる。なるべく個人的な話をしないよう、用心するに越したことはない。
ここまでは人間の側が勝手に個人情報を漏らしてしまうという話だった。それではもし、個人情報を意図的に集めるチャットボットがいたとしたらどうだろうか?
