Pcess609- stock.adobe.com

 ビジネスや社会生活にAIが急速に普及するのに伴い、AIに関する倫理やガバナンスが注目を集めている。本連載では、Deloitte AI Instituteのグローバルリーダーが著した『信頼できるAIへのアプローチ』(ビーナ・アマナス著、森正弥・神津友武監訳/共立出版)より、内容の一部を抜粋・再編集。AIに潜む落とし穴、積極的に利用するために必要なリスク管理、そしてAIをいかに信頼できるものとして活用していくかを探る。

 第5回目は、AI導入に人間の介入と判断が欠かせない理由、そしてビジネスリーダーとデータサイエンティストが果たすべき責任について解説する。

<連載ラインアップ>
第1回 Deloitte AI Instituteのグローバルリーダーが考える「信頼できるAI」とは?
第2回 AIに履歴書を読み込ませれば、優秀な人材を本当に素早く選び出せるか?
第3回 バイアスのあるデータで学習したAIが、ビジネスに与える深刻な影響とは?
第4回 CEOは男性、秘書は女性?なぜ人間が作るデータにバイアスがかかるのか?
■第5回 AIを使うべきか使わぬべきか、リーダーとデータサイエンティストの責任とは?(本稿)

※公開予定日は変更になる可能性がございます。この機会にフォロー機能をご利用ください。

<著者フォロー機能のご案内>
●無料会員に登録すれば、本記事の下部にある著者プロフィール欄から著者フォローできます。
●フォローした著者の記事は、マイページから簡単に確認できるようになります。
会員登録(無料)はこちらから

■公平性におけるトレードオフ

 バイアスが存在しうるデータを用いると、アルゴリズム上に1つのトレードオフが出現します。例えば、データの質が良くなればなるほど、AIの精度は高くなりえます。しかし一方で、そのデータによって不公平な判断をしてしまう可能性も高くなります。

 人種に対するバイアスが内在するデータで学習させたAIツールは、あたかも現実世界を完全に再現するかのように、人種差別をする可能性があり、同時に半永久的にそのようなバイアスをはらみ続ける可能性も高くなります。

 一方で、すべてのグループに対し同じような結果を出力するAIを追求する際は、私たちはデータの分散を小さくすれば十分なのです。そうすれば、AIの精度は低くなりますが、均一性としての精度は高くなります。これは単純な例であり、公平性に関わるバイアスの種類が増えればさらに複雑になるので、トレードオフを考慮するとすべてのバイアスを軽減させることは不可能だという研究結果もあります9

 このことを踏まえると機械学習にはバイアスが必ず存在してしまうように思われるかもしれませんが、それは必ずしも悪いことではありません。

 例えば、男性よりも女性の方が多く発症する乳がんのリスクを生体データから判断するAIツールをイメージしてみてください。この場合、公平性を確保しようとしてAIが性別に依らずにリスクを判断できるようデータセットを調整することに意味はありません。この事例において、性別はリスクをスコアリングするために必要不可欠な要素であるのです。

 この事例を通して、AIには人間の介入と判断が重要であるということがわかります。すなわち、アルゴリズムが大量で複雑な計算を行い、その結果をもとに人間が意思決定すればよいのです。

 ただし、その際にAI開発の中で公平性とは何かを論じ、今あるAIの出力がどの程度公平であるのか、あるいは公平だと信じられるのか、という根本的な問いに答えることはほぼ不可能です。

 これらについて議論する必要があるならば、AI開発時にはデータサイエンティストだけでなく、倫理学者や公平性についての専門家など、様々なステークホルダを集めなければなりません。

9. Jon Kleinberg, Sendhil Mullainathan, and Manish Raghavan, “Inherent Tradeoffs in the Fair Determination of Risk Scores,”Proceedings of the 8th Conference on Innovations in Theoretical Computer Science(2016)https://arxiv.org/abs/1609.05807.