AIに人種が設定されたら、人間はどう反応する?(筆者がWhiskで生成)
目次

(小林 啓倫:経営コンサルタント)

 あなたは今日、何回AIと対話しただろうか?仕事の調べものからちょっとした相談、はたまた個人的な会話に至るまで、いまや多くの人々が、日常的にAIとコミュニケーションをしている。

 ただ、そうしたコミュニケーションの中で、AIの「人種」を意識したことはあまりないのではないだろうか。

 最近のAIは音声でやり取りできるものも多いため、その場合には、AIの「声」で人種や性別、年齢層などを意識することはあるかもしれない。いずれにしても、もしAIに「人種」を感じることがあったら、あなたはどう思うだろうか。そして日々行っているAIとのコミュニケーションに、どのような変化が生じるだろうか。

 もちろん、ただのデジタルデータの集合体であるAIに人種などないことは明白だ。したがって、仮に特定の人種・性別・年齢層などを意識させるような音声や見た目をしていたとしても、そこから受け取る印象が変わることがあっても、心の奥底ではAIへの態度を変えることはない、と思うかもしれない。

 ところが最近の研究は、驚くべき事実を明らかにしている。私たちが何らかの形でAIの「人種」を意識すると、その認識が行動に影響を与えるというのだ。

AIを「人種化」した実験

 この研究を手掛けたのは、ペンシルベニア州立大学のSwapnika DulamとChristopher Dancyという2人の研究者だ。彼らは人間の深層心理にある、隠れた偏見の存在を、巧妙にデザインされた実験によって浮き彫りにした。

 発表された論文によると、この研究の出発点は、「コンピューターは社会的アクター」(CASA: Computers Are Social Actors)という概念にある。これはスタンフォード大学の研究者らが1990年代に提唱したもので、「人間は知らず知らずのうちに、コンピューターとの対話において、人間同士のやり取りで使うのと同じ社会的ルールを適用してしまう」という理論だ。

 たとえば、チャットボットとやり取りする際、丁寧な言葉遣いをするボットには、こちらも丁寧に返事してしまうことが多い。別に相手は機械なのだから、ぶっきらぼうな反応をしても何ら問題はないだろうが、人間の脳には「相手に丁寧にされたらこちらも丁寧に接するべき」という礼儀や互恵性、すなわち社会的ルールがインストールされており、それが無意識のうちに適用されてしまうというわけだ。

 DulamとDancyの研究チームは、この理論を一歩進め、「もしAIが特定の人種グループのデータで訓練されたと人々が信じたら、その協力行動はどう変わるのか?」という問いを設定した。