クレイグ・フェデリギ氏とiCloudのロゴ(写真:AP/アフロ)

 米アップルは、スマートフォン「iPhone」などの同社製端末で導入を予定していた児童ポルノ対策機能の計画を延期する。米ウォール・ストリート・ジャーナルなどが9月3日に報じた。プライバシー侵害のリスクが生じると擁護団体などが懸念を示していたという。

 アップルは声明で、「顧客や権利擁護団体、研究者などの意見を基に、今後数カ月さらに時間をかけて情報収集や改善に取り組むことを決めた」と説明した。具体的な導入時期については明らかにしていない。

児童性的虐待コンテンツを検知

アップルは、子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を防止する取り組みを進めている。2021年8月には、年内にリリースする基本ソフト(OS)の新版にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにしていた。

 具体的には、iPhoneなどから写真をアップルのクラウドサービス「iCloud(アイクラウド)」にアップロードする際、当該写真をCSAMの画像データベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、利用者のアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。

 新機能は米国の利用者を対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれるとしていた。

 アップルは、「新機能はユーザーの機器にある写真や、クラウドサービス上に保存された写真を広範囲にスキャンするものではない。クラウドにアップロードする際に端末側のソフトウエアで検知するだけ」と説明。「端末内を覗き見るものではなく、クラウドサービスを利用しない人には何ら影響が及ばない」と付け加えた。

 だが、プライバシー擁護団体などは、利用者のコンテンツをスキャンするこの技術は、別の用途に利用される恐れがあると懸念を示している。例えば、「一部の国の政府が市民の政治的な主張に関する写真を検閲できてしまう」と指摘している。

 アップルはそうした懸念に反論。ウェブサイトに文書を公開し、「当社はそのような要求に一切応じない。この機能は、iCloudにアップロードされる児童ポルノを検知するためだけに開発した」と説明した。

メッセージサービスの児童保護機能

 アップルは21年8月、この機能と併せて、メッセージサービス「iMessage(アイメッセージ)」で親が子供を守る機能も明らかにした。こちらは、性的描写の写真の送信や、受信時の閲覧を防止するものだ。例えば、子供が問題のある写真を送信しようとしたり、受信したりした場合、ソフトウエアが端末上のそれら写真を検知して非表示にする。そのうえで、「もしこれを表示したら、保護者に通知します」などとと警告を出す。その際にアップルには通知されない。

 1つ目のCSAM(児童性的虐待コンテンツ)検知機能と、2つ目のメッセージサービスにおける児童保護機能は、別のものであり、使用している技術も異なると、アップルは説明している。

 アップルのソフトウエアエンジニアリング担当上級副社長であるクレイグ・フェデリギ氏は後にウォール・ストリート・ジャーナルとのインタビューで、「2つの機能を同時に発表したことが混乱を招いた原因。当社が伝えたかったことがごちゃ混ぜになった」と釈明した。

 同氏は「風呂に入っている自分の子供の写真を持っているどうかを分析するようなことはしない。さらに言えば、利用者が他の種類のポルノ画像を持っているかといったことも調べない」と付け加えた。

 だが、それでも専門家はアップルの技術に懸念を抱いている。米ジョンズ・ホプキンズ大学のグリーン准教授は、アップルが採用しているアルゴリズムは画像を誤認識する恐れがあると警告。「アップルは他社に倣い、共有された写真のみをスキャンするべきだ。私的な写真はスキャンするべきではない」と述べている。

 (参考・関連記事)「アップルの児童ポルノ検知、批判受け火消しに走る | JDIR