解決の糸口がなかなか見えないAIバイアス(写真:ロイター/アフロ)
  • 採用や人事などで活用が進むAIだが、導入が進むにつれて、様々な問題が噴出している。その一つが、機械学習の過程で生まれるAIバイアスである。
  • ニューヨーク市のように人材採用AIを使用する際に、「バイアス監査」を義務づける動きもあるが、人間がAIバイアスの有無を判断することは極めて難しい。
  • 学習で使用するデータが増えるほど隠れバイアスが深刻化することを考えれば、「AIは差別するもの」という前提に立って機会と付き合う必要がある。

(小林 啓倫:経営コンサルタント)

 AI(人工知能)は差別する――。

 最近のAI関連ニュースに触れている方であれば、嫌と言うほど聞かされてきた指摘だろう。機械であるはずのAIが差別という感情的な行為に走るというのも、考えてみればおかしな話だが、近年主流のAI開発手法である機械学習では、バイアス(偏見)は根絶が非常に難しい問題のひとつとなっている。

 簡単に言ってしまえば、機械学習は「過去に学ぶ」という手法だ。

 たとえば、過去の売り上げデータをAIに渡して、そこに「気温が30℃以上になるとアイスの売り上げが倍になる」というパターンがあれば、AIは「来週気温が30℃以上になりそうな日があるなら、アイスの仕入れを倍にしておくべき」という判断を下すようになる。

 問題はその過去データに、人間の偏見に基づく行動が反映されている場合があることだ。

 たとえば、AIのバイアス問題でよく引き合いに出される事例のひとつに、米Amazonが社内用に開発しようとしていた履歴書審査AIがある。

 彼らはエンジニアの求人に応募してきた人々を効率的にスクリーニングするために、AIに履歴書を読ませて、その人物の好ましさを星5つで判断させようとした。ところが、Amazonは過去にエンジニアに男性を多く採用してきたという経緯があった。

 それが差別によるものだったのか、実際のところは分からない。本当に偶然、これまでAmazonに応募してきた女性エンジニアが期待値を満たさない人物だったのかもしれない。

 いずれにしても開発されたAIは、過去の人事関連データから「女性はエンジニアに採用しない」というパターンを学習した。その結果このAIは、女性の求職者に不利な判定を下すようになってしまったのである。

 Amazonはこの問題を解決することができず、開発に数年かけた履歴書審査AIを、最終的に破棄する決定を下した。

【関連記事】
ChatGPTやAmazonもつまずいた、「AI活用による人権侵害」をどう防ぐか

 実は彼らのように、採用や人事に関する決定にAIを役立てようとしながら、開発されたAIに何らかのバイアスが確認されるというケースは少なくない。

 あまりに問題が多く発生していることから、米ニューヨーク市では独自の条例を制定して、「人材採用AI」に規制をかけたほどだ。