EUのAI倫理ガイドライン、7つの原則

1. 人間の監督と自律性

 AIが暴走しないよう、人間が最終判断を行える仕組みを持つこと。

2. 堅牢性と安全性

 誤作動やサイバー攻撃に強く、予期せぬ状況でも安定して動作すること。

3. プライバシーとデータガバナンス

 個人情報の保護やデータ利用の透明化を徹底すること。

4. 透明性と説明可能性

 AIがなぜその判断を下したのかを説明できること。

5. 公平性と非差別性

 特定の属性や集団に対するバイアスを排除すること。

6. 社会的・環境的幸福

 AIが人類と地球環境にとって有益であること。

7. 説明責任とガバナンス

 AIの誤りや被害が起きたとき、責任の所在を明確にすること。

 これらは単なる理想論ではありません。AIが社会に信頼されるためには、技術・倫理・法制度の3つのバランスを取ることが不可欠です。

 トラストワーシィAIとは、その3本柱を整えるための信頼設計の哲学と言えます。