米アップルが先ごろ発表した児童ポルノ対策を巡り、懸念や批判が相次いでいることを受け、同社は意図が誤解されていると火消しに走った。
警告された写真のみを監視対象に
ロイターによると、アップルは2021年8月13日、複数の国のクリアリングハウス(情報センター)から警告された写真のみを対象にすると述べた。
また、米ウォール・ストリート・ジャーナルによると、アップルのソフトウエアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は同紙とのインタビューで、「当社は問題が報告されている画像の特徴のみを照合するのであって、ユーザーが、風呂に入っている自分の子どもの写真を持っているどうかを分析するようなことはしない。さらに言えば、ユーザーが他の種類のポルノ画像を持っているかといったことも調べない」と説明した。
プライバシー侵害や市民への監視強化の恐れ
アップルは21年8月5日、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を抑制する目的で、同社製機器のソフトウエアに児童ポルノ検知機能を導入すると発表した。
iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、データベースと照合し問題のある写真を特定する。システムが対象とされる写真を約30枚以上検知すると、アップルの担当者が確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に通報する。
この取り組みには一定の評価があるものの、プライバシー侵害や市民への監視強化につながる恐れを懸念する意見も多いと欧米メディアは報じている。