(矢守 亜夕美:オウルズコンサルティンググループ プリンシパル)
昨今、企業によるSDGsやESGへの取り組み状況が評価されるようになり、脱炭素などの環境対応に加えて、「ビジネスにおける人権尊重」が重要な経営アジェンダとなっている。サプライチェーン上での強制労働・児童労働や差別、ハラスメントなどの「人権リスク」への対応を怠る企業には、厳しい視線が注がれているのが現状だ。
日本政府も昨年秋にサプライチェーン上の人権尊重に関するガイドラインを発表し、国内企業に取り組み強化を促している。
こうした潮流の中で、にわかに注目を集めているのが「AI活用に伴う人権リスク」の問題だ。一見、その便利さでビジネスの生産性や効率性を大幅に底上げしてくれる「救世主」にすら見えるAIだが、実はその裏で深刻な人権リスクが顕在化してしまうことがある。
例えば最近、連日ニュースを賑わせている「ChatGPT」。米国のAI研究機関Open AIが開発したチャットボットであり、質問に対してかなり自然な文章で回答できるため注目を集めている。簡単な会話から識者顔負けの論文(内容は正確でないこともあるが)まで、幅広くアウトプットできるのが特徴だ。
この話題のAIについて、開発過程での人権問題が指摘されているのをご存知だろうか。