「AI上司」が偏見から逃れられないことが実験で明らかに(筆者がWhiskで生成)
目次

(小林 啓倫:経営コンサルタント)

根強い職場での偏見

 かつてはさまざまな職場で見られた、「女性だから」や「出身地が○○だから」といった偏見や固定概念。時代も令和に入り、かなり抑制されてきているとはいえ、まだまだ根強く残っているようだ。

 たとえば、コンサルティング会社のPwCが2023年に行った調査によれば、上司に関する質問として、彼らが「自分と自分の同僚を公正かつ公平に扱う」かどうかを訊ねたところ、それに「強く」または「中程度」に同意する回答者はグローバル全体では半数を超えている(52%)一方で、日本では31%に留まっている。

 また、日本労働組合総連合会(連合)が2020年12月に発表した調査結果によれば、回答者約5万人のうち、日常や職場でアンコンシャス・バイアス(無意識の思い込みや偏見)を認識したことがあると答えたのは、実に95.5%に達したという。

 こうした人間の偏見や固定概念が、データの形で表れてしまうと、それを学習して生まれたAIは同じ偏見や固定観念を引き継いでしまう。

 たとえば、Amazonが過去に開発したエンジニア向け書類選考AIは、過去のAmazon社の採用傾向(エンジニア職には男性を選ぶ傾向があった)を学習した結果、女性の候補者を採用したがらないという偏見を持つAIになってしまった。

 したがって現在では、AIを開発する場合、その学習に使われるデータから人間の偏見を表すものを取り除いておくといった対応が取られている。逆にそうした技術的な対応がなされるAIの方が、人間よりも公平に判断できるようになるとの主張もある。

 その期待に応えるのはなかなか難しいのだが、とはいえ多くの企業が実際に取り組み、「人間のような偏見を持たないAI」の開発に成功しつつある。ただ、最近発表されたとある論文が、AIから偏見を取り除くことの難しさを指摘している。

 この論文は2人の中国人研究者によって執筆されたもので、「あなたのAI上司は依然として偏見を持つ(Your AI Bosses Are Still Prejudiced)」という刺激的なタイトルが付けられている。

 彼らは実際にAIを使った実験によって、AIは学習に使用するデータ(つまり人間の偏見)からだけでなく、AI同士の相互作用からも偏見を学び得ると結論付けている。

 いったいどういうことか、実際に彼らが行った実験内容を見ていこう。