EUのAI倫理ガイドライン、7つの原則
1. 人間の監督と自律性
AIが暴走しないよう、人間が最終判断を行える仕組みを持つこと。
2. 堅牢性と安全性
誤作動やサイバー攻撃に強く、予期せぬ状況でも安定して動作すること。
3. プライバシーとデータガバナンス
個人情報の保護やデータ利用の透明化を徹底すること。
4. 透明性と説明可能性
AIがなぜその判断を下したのかを説明できること。
5. 公平性と非差別性
特定の属性や集団に対するバイアスを排除すること。
6. 社会的・環境的幸福
AIが人類と地球環境にとって有益であること。
7. 説明責任とガバナンス
AIの誤りや被害が起きたとき、責任の所在を明確にすること。
これらは単なる理想論ではありません。AIが社会に信頼されるためには、技術・倫理・法制度の3つのバランスを取ることが不可欠です。
トラストワーシィAIとは、その3本柱を整えるための信頼設計の哲学と言えます。