アップル ロゴ(写真:ロイター/アフロ)
米アップルが先ごろ発表した児童ポルノ対策を巡り、懸念や批判が相次いでいることを受け、同社は意図が誤解されていると火消しに走った。
警告された写真のみを監視対象に
ロイターによると、アップルは2021年8月13日、複数の国のクリアリングハウス(情報センター)から警告された写真のみを対象にすると述べた。
また、米ウォール・ストリート・ジャーナルによると、アップルのソフトウエアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は同紙とのインタビューで、「当社は問題が報告されている画像の特徴のみを照合するのであって、ユーザーが、風呂に入っている自分の子どもの写真を持っているどうかを分析するようなことはしない。さらに言えば、ユーザーが他の種類のポルノ画像を持っているかといったことも調べない」と説明した。
プライバシー侵害や市民への監視強化の恐れ
アップルは21年8月5日、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を抑制する目的で、同社製機器のソフトウエアに児童ポルノ検知機能を導入すると発表した。
iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、データベースと照合し問題のある写真を特定する。システムが対象とされる写真を約30枚以上検知すると、アップルの担当者が確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に通報する。
この取り組みには一定の評価があるものの、プライバシー侵害や市民への監視強化につながる恐れを懸念する意見も多いと欧米メディアは報じている。
アップルの説明によると、この機能はユーザーの機器にある写真をスキャンするものではない。クラウドサービス上に保存された写真を広範囲にスキャンするものでもない。クラウドにアップロードする際に端末側のソフトウエアで検知する。つまり、端末内を覗き見るものではなく、クラウドサービスを利用しない人には何ら影響が及ばないという。「端末のソフトウエアで処理するため、もしアップルがソフトウエアに変更を加え、それに脆弱(ぜいじゃく)性があったとしても、そのことが分かる。外部の専門家が監視できる仕組みだ」とフェデリギ氏は述べた。
一方で、プライバシー擁護団体などは、一部の国の抑圧的な政府が市民の政治的な主張を監視するために利用する恐れがあると指摘している。
アップルはこうした懸念を払拭するため、8月8日にウェブサイトに文書を公開。「当社はそのような要求に一切応じない。この機能は、iCloudにアップロードされる児童ポルノを検知するためだけに開発した」と説明した。
フェデリギ氏「伝えたかったことがごちゃ混ぜになった」
同社は今回、2つの機能を同時に発表したが、それが混乱を招いた可能性があるとウォール・ストリート・ジャーナルは報じている。もう1つの機能とは、メッセージサービス「iMessage(アイメッセージ)」で親が子供を守る機能。性的描写の写真の送信や閲覧を防止するものだ。例えば、子供が問題のある写真を受信した場合、ソフトウエアがそれを検知して写真を非表示にする。そのうえで、「もしこれを表示したら、保護者に通知します」と警告を出す。その際にアップルには通知されないという。
アップルのフェデリギ氏は、新機能の発表に際し同社につまずきがあったことも認めた。「当社が伝えたかったことがごちゃ混ぜになった。今思えば、2つの機能を同時に発表したことが誤解を招いた原因。利用者が普段やりとりするメッセージには、これからも何も起きない」と述べた。
(参考・関連記事)「iPhoneの写真を検閲?児童ポルノ検知機能が物議醸す | JDIR」






