米アップルが先ごろ発表した、スマートフォン「iPhone」などの同社製機器に導入する児童ポルノ検知機能が物議を醸している。
全米行方不明/被搾取児童センターに報告
子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を抑制する目的で導入するものだが、これがプライバシー侵害や市民への監視強化につながりかねないと、プライバシー擁護団体やテクノロジーの専門家などが懸念を示している。
アップルは2021年8月5日、年後半にリリースする基本ソフト(OS)にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにした。
iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、当該写真を児童ポルノに関するデータベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。
新機能は米国のユーザーを対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれるという。
米CNBCによると、米企業は児童ポルノを全米行方不明/被搾取児童センターに報告することが義務付けられている。もしそうした違法画像を発見し、報告しなかった場合は30万ドル(約3300万円)の罰金が科される。
アップル「プライバシー保護が保たれる」
アップルによると、この機能はユーザーの機器にある写真をすべてスキャンするものではない。他社のようなクラウドサービス上の写真を広範囲にスキャンするものでもない。「クラウドにアップロードする際に端末側で処理するため、プライバシー保護が保たれる」(同社)という。