アップルはそうした懸念に反論。ウェブサイトに文書を公開し、「当社はそのような要求に一切応じない。この機能は、iCloudにアップロードされる児童ポルノを検知するためだけに開発した」と説明した。
メッセージサービスの児童保護機能
アップルは21年8月、この機能と併せて、メッセージサービス「iMessage(アイメッセージ)」で親が子供を守る機能も明らかにした。こちらは、性的描写の写真の送信や、受信時の閲覧を防止するものだ。例えば、子供が問題のある写真を送信しようとしたり、受信したりした場合、ソフトウエアが端末上のそれら写真を検知して非表示にする。そのうえで、「もしこれを表示したら、保護者に通知します」などとと警告を出す。その際にアップルには通知されない。
1つ目のCSAM(児童性的虐待コンテンツ)検知機能と、2つ目のメッセージサービスにおける児童保護機能は、別のものであり、使用している技術も異なると、アップルは説明している。
アップルのソフトウエアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は後にウォール・ストリート・ジャーナルとのインタビューで、「2つの機能を同時に発表したことが混乱を招いた原因。当社が伝えたかったことがごちゃ混ぜになった」と釈明した。
同氏は「風呂に入っている自分の子供の写真を持っているどうかを分析するようなことはしない。さらに言えば、利用者が他の種類のポルノ画像を持っているかといったことも調べない」と付け加えた。
だが、それでも専門家はアップルの技術に懸念を抱いている。米ジョンズ・ホプキンズ大学のグリーン准教授は、アップルが採用しているアルゴリズムは画像を誤認識する恐れがあると警告。「アップルは他社に倣い、共有された写真のみをスキャンするべきだ。私的な写真はスキャンするべきではない」と述べている。
(参考・関連記事)「アップルの児童ポルノ検知、批判受け火消しに走る | JDIR」