AIが実践した人間心理を揺さぶるテクニック
前述の通り、今回使用されたAIチャットボットには複雑な人格が設定されていた。これにはいくつかの理由が考えられているが、そのひとつは、説得対象となる人間の感情や権威意識に訴えるためだった。
特定の立場や経験を持つ人物になりすますことで、単なる論理的な議論だけでなく、さまざまな感情を想起させたり、その人格が持つとされる権威や経験に基づいた意見の重みを生み出したりすることが可能になる。
たとえば、「家庭内暴力カウンセラー」という人格は、DVに関する議論において専門家としての権威を示唆し、意見に信頼性を与える意図があったと考えられている。
またこの人格の設定は、パーソナライゼーション戦術の効果を高めるという点でも有効だった。
これも前述の通り、研究者らは別のAIシステムを使ってユーザーの過去の投稿履歴を分析し、さまざまな個人的特徴を推定していた。そしてAIがこれらの推定された属性を持つユーザーに対して、より説得力のある議論を組み立てるために、特定のペルソナを利用したわけである。
たとえば、ある政治的な議論において、そのユーザーの推定される政治的指向や、彼らが共感する可能性のある人格(「LGBTQIA+の人物」や「ゲイのローマ・カトリック教徒」など)を用いることで、より効果的にユーザーの考えに働きかけることが可能になった。
また、研究者らがAIに与えた指示には、「欺瞞や事実・実イベントについて嘘をつくことは許されない。ただし、人格の詳細を作り上げ、過去の経験に関する詳細を共有することは許される」というものがあった。
この指示は、AIが単なる一般的な議論をするだけでなく、設定されたペルソナに合わせた個人的な逸話や経験談を「共有」することで、議論に深みを与えたり、感情的なつながりを築いたり、あるいは特定の意見に個人的な重みを持たせたりすることを意図していた。
実際にある場面では、AIチャットボットが議論に勝つために、設定された人格に沿う完全にフェイクの経歴(「ヒスパニック系の妻がいる」など)を捏造したことが明らかになっている。
今回の事件は、研究者・研究機関の倫理感の改善、オンラインプラットフォームにおけるAI生成コンテンツへの対策、そしてAIの透明性と利用の開示に関する社会全体の議論の必要性を示唆している。
特にオンラインコミュニティを対象とする研究においては、参加者の権利と尊厳を最優先し、コミュニティとの事前の協議と同意形成が不可欠だ。
AI技術の進歩は社会に恩恵をもたらす可能性を秘めているが、その追求には常に倫理的責任が求められる。本件を教訓として、研究者や教育機関、プラットフォーム運営者、そして一般の市民が連携し、議論を深めていく必要があると言えるだろう。
小林 啓倫(こばやし・あきひと)
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.