新疆ウイグル自治区への言及で声を張り上げた中国代表団
会場の空気が一変したのは、中国・新疆ウイグル自治区での強制労働疑義に具体的な言及がなされた直後だ。
会場で参加していた中国代表団が突如声を上げ、新疆の紛争地域指定は誤りであると反発し、強制労働疑惑を「反中勢力による捏造」「事実無根」と全面的に否定し、会場は異様な緊張感に包まれた。その光景は「地政学リスクの高い状況下におけるリスク特定と対応の難しさ」を象徴しているようだった。
高リスク地域においては企業単独の調査には限界がある。だからこそ、企業が市民社会や労働組合と連携し、現場との対話を通して一次情報を共有するマルチステークホルダー連携が不可欠となる。そうして初めて透明性が高まり、実効性ある人権対応が可能となる。
近年の大きな変化として見逃せないのは、ビジネスにおけるAI活用の急拡大である。AIは効率性を高める反面、プライバシーの侵害やアルゴリズムによる差別の助長、表現の自由・政治参加といった権利の制限等をもたらすリスクがあると指摘されている。
議論の中では、「誰が責任を負うのか」という問いが繰り返し投げかけられた。自社がサービスとして利用しているAIが誤った情報を出してしまった場合も、そのシステムを調達・利用した企業が最終的な責任主体とみなされる傾向が強まっている。
2024年、カナダの航空会社エア・カナダのAIチャットボットが誤った案内を提供した件で、同社が責任を問われ敗訴した事例が象徴するように、「AIがそう答えたから」という抗弁は法的責任回避の理由にならない。
一方で、AIを単なるリスクとしてではなく、人権DD高度化の「機会」として活用する事例として、米Amazon社の取り組みが紹介された。
同社はかつて、履歴書を自動評価する採用補助AIが学習データの偏りにより女性応募者を不利に扱い、運用を断念した苦い経緯がある。この失敗も踏まえ、現在はサプライチェーン全体の人権DDにおいて、リスクを予測するAIモデルを構築しているという。
異常な労働時間やサプライチェーン上の不審な動き、採用パターンデータなどから、人間では見落とされがちなリスク兆候の抽出が可能になった。
同社は、AIの出力を必ず人間の専門家が検証する「Human-in-the-loop」のプロセスを徹底することを強調した。人間による検証は引き続き不可欠でありつつ、AIを「分析を強化する補完ツール」として位置づける姿勢が示された。