感情AIに潜む大きなリスク

 生成AI技術が発達したことで、人間の感情を把握・分析し、それを再現したり、さらには操作したりすることまで可能な「感情AI」の高度化が進んでいる。カスタマーセンターに電話してきた顧客の感情を把握し、CSRの感情が害されないようにケアしてくれるPro-Pilotは、まさに感情AIの一種と言えるだろう。

 しかし、感情AIは大きなリスクも抱える存在であることが明らかになってきている。

 ミシガン大学の研究者らは昨年発表された論文の中で、感情AIは従業員の感情を推測し、監視することで、従業員のプライバシーを大きく侵害する可能性があると説明している。

 また、感情の推測・監視は、Pro-Pilotとはまったく逆に、従業員に感情労働を強制するリスクもあると指摘している。職場の期待に応じた感情を表現することを強制され、自分の感情を押し殺して働かざるを得なくなるためだ。

 そうなれば生成AIは、感情労働を軽減するのではなく、さまざまな職場に感情労働を広げていくものになるかもしれない。取引先に送るメールの内容が強制的にチェックされ、少しでも負の感情が認められた場合には書き直しを要求されるといった具合である。

 もちろんそれには、パワハラの防止に役立つといったプラスの側面もあるが、どこで線引きするのか、どこまでの介入を許すのかというのは難しい問題だ。

 もはや生身の人間同士のコミュニケーションにも、AIがさまざまな形で関与してくる時代になったということなのだろう。それがもたらすのはユートピアか、あるいはディストピアか、私たちのかじ取りが求められている。

生成AIが感情労働者を守る存在に?(生成AIによるイメージ)

【小林 啓倫】
経営コンサルタント。1973年東京都生まれ。獨協大学卒、筑波大学大学院修士課程修了。
システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBAを取得。その後コンサルティングファーム、国内ベンチャー企業、大手メーカー等で先端テクノロジーを活用した事業開発に取り組む。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たなビジネス』『ドローン・ビジネスの衝撃』『IoTビジネスモデル革命』(朝日新聞出版)、訳書に『ソーシャル物理学』(草思社)、『データ・アナリティクス3.0』(日経BP)、『情報セキュリティの敗北史』(白揚社)など多数。先端テクノロジーのビジネス活用に関するセミナーも多数手がける。
Twitter: @akihito
Facebook: http://www.facebook.com/akihito.kobayashi