AI利用における「許容できないリスク」

平:ソーシャルスコアリングも禁止の対象です。社会的な様々な評価や個人の属性をAIスコア化するサービスで、既に社会で実装されていますが、これを不当に使用して差別的な扱いをすることは禁止されています。

「マイノリティ・リポート」というSF映画(フィリップ・K・ディックの同名短編小説が原作)という映画がありましたが、あれに近いような使い方も禁止対象です。「この人が将来的に犯罪を行う可能性はこのぐらいです」という予測に使ってはならないということです。

 また、AIを使って人の表情を読み取り、そこから感情の状態を推測するという機能が開発されていますが、これを職場や教育機関で使用することも禁止されています。感情と表情のつながりは、個人やその国の文化によってもかなり違いがあり、AIの精度に問題があるのではないかという指摘もあるためです。

──いずれも不当な評価や差別に関わる問題ですね。

平:意識下に働きかける「サブリミナル」のように、人の認知を意図的に歪め、本人が思っていないような行動を取らせるという使い方もAI法では禁止されています。

 以上のような使い方は、「リスクベース」の考え方では「許容できないリスク」と評価されています。

EUで成立したAI規制法のポイント(画像:共同通信社)EUで成立したAI規制法のポイント(画像:共同通信社)
拡大画像表示

 これよりも少しリスクの度合いが低いものとして、「ハイリスク」というランクがあります。禁止まではしないけれども、その使い方についてはしっかりした対策を取るよう義務を課すというものです。

 人材採用などの場面でも、AIが使われることがあります。エントリーシートの読み取りや動画による面接のAI評価などがそうです。入試、採用、あるいは職場における評価、昇進に関わるような評価といった部分でAIが関わることもあります。

──以前からちょっと恐いと感じています。

平:行政であれば、公的扶助の申請を認めるかどうかの審査があり、こうした審査にもAIが使われていきます。しかし、このような審査や評価は、人生を左右する大きな意味を持ちます。

 こうした部分にもAIはどんどん導入されていきますが、公正性を保つためには十分な注意が必要です。例えば、AIが判断をする上で事前の学習データが偏っていると、特定の属性の人々の差別につながる可能性もあります。

 そして、職場や行政機関がバイオメトリクスを使えば、監視につながるリスクもあります。こうした部分は、十分な対策を義務化しています。