Appleは米国時間9月3日、一部の「iPhone」「iPad」「Mac」を対象とした、性的略奪者などから児童を保護するための一連の機能の導入を延期することを明らかにした。Appleの技術が監視目的で利用される可能性を懸念するプライバシー擁護者やセキュリティ研究者らが、このような機能に対する批判の声を上げていた。
Appleは8月、「iCloud」に保存された児童の性的虐待コンテンツ(CSAM)を検出する機能や、児童が「メッセージ」アプリで性的な写真などを受信した可能性が高い場合、写真をすぐに表示せず、警告メッセージを表示する機能を発表した。Appleは声明の中で、これらの機能の導入を延期するとしている。
同社は、「顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な児童保護機能をリリースする前に、今後数カ月間でさらに時間をかけ、情報を収集し、改善することにした」と説明した。米CNETは、これらの技術をあらためて導入する時期などの計画について、Appleにさらなるコメントを求めたが回答はない。
Appleはここ数週間、新機能は熟慮され、プライバシーを保護する形で構築されていると主張してきた。同社はこの数年、プライバシーを考慮してデバイスやソフトウェアを設計することを約束しており、Googleの「Android」を搭載するデバイスに代わるものとなることを示してきた。
最高経営責任者(CEO)のTim Cook氏は、「プライバシーは基本的人権だとAppleは信じている」などとたびたび発言してきた。
しかし、批判を鎮めることはできなかった。この機能が発表された後、100近くの政策団体や擁護団体が、Appleにこのような技術の導入を再考するよう求める公開書簡に署名した。
書簡には、「こうした機能は子供を守り、CSAMの拡散を減らすことを目的としているが、保護された言論の検閲や、世界の人々のプライバシーとセキュリティを脅かすことに利用され、多くの子供に悲惨な結果をもたらすのではないかと懸念している」と書かれている。民主主義と技術のためのセンター(Center for Democracy and Technology)、アメリカ自由人権協会(ACLU)、電子フロンティア財団(EFF)、プライバシーインターナショナなどが署名した。
Appleがこの技術の公開を中断したことに失望したとする声もある。一部の支持者は、Appleは難しい問題に思慮深いアプローチで対応していたなどと主張している。
UK childrens charity NSPCC says Apple's delay is "incredibly disappointing". So Apple has now managed to anger both sides of the privacy/protection debate. https://t.co/6zSljK3EuS
— Tim Bradshaw (@tim) September 3, 2021
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」