クレイグ・フェデリギ氏とiCloudのロゴ(写真:AP/アフロ)

 米アップルは、スマートフォン「iPhone」などの同社製端末で導入を予定していた児童ポルノ対策機能の計画を延期する。米ウォール・ストリート・ジャーナルなどが9月3日に報じた。プライバシー侵害のリスクが生じると擁護団体などが懸念を示していたという。

 アップルは声明で、「顧客や権利擁護団体、研究者などの意見を基に、今後数カ月さらに時間をかけて情報収集や改善に取り組むことを決めた」と説明した。具体的な導入時期については明らかにしていない。

児童性的虐待コンテンツを検知

アップルは、子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を防止する取り組みを進めている。2021年8月には、年内にリリースする基本ソフト(OS)の新版にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにしていた。

 具体的には、iPhoneなどから写真をアップルのクラウドサービス「iCloud(アイクラウド)」にアップロードする際、当該写真をCSAMの画像データベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、利用者のアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。

 新機能は米国の利用者を対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれるとしていた。

 アップルは、「新機能はユーザーの機器にある写真や、クラウドサービス上に保存された写真を広範囲にスキャンするものではない。クラウドにアップロードする際に端末側のソフトウエアで検知するだけ」と説明。「端末内を覗き見るものではなく、クラウドサービスを利用しない人には何ら影響が及ばない」と付け加えた。

 だが、プライバシー擁護団体などは、利用者のコンテンツをスキャンするこの技術は、別の用途に利用される恐れがあると懸念を示している。例えば、「一部の国の政府が市民の政治的な主張に関する写真を検閲できてしまう」と指摘している。