アップル、児童虐待画像の検知機能などを導入する計画を延期

Ty Pendlebury Ian Sherr (CNET News) 翻訳校正: 編集部2021年09月06日 08時21分

 Appleは米国時間9月3日、一部の「iPhone」「iPad」「Mac」を対象とした、性的略奪者などから児童を保護するための一連の機能の導入を延期することを明らかにした。Appleの技術が監視目的で利用される可能性を懸念するプライバシー擁護者やセキュリティ研究者らが、このような機能に対する批判の声を上げていた。

iPhone
提供:Sarah Tew/CNET

 Appleは8月、「iCloud」に保存された児童の性的虐待コンテンツ(CSAM)を検出する機能や、児童が「メッセージ」アプリで性的な写真などを受信した可能性が高い場合、写真をすぐに表示せず、警告メッセージを表示する機能を発表した。Appleは声明の中で、これらの機能の導入を延期するとしている。

 同社は、「顧客、擁護団体、研究者などからのフィードバックに基づいて、これらの非常に重要な児童保護機能をリリースする前に、今後数カ月間でさらに時間をかけ、情報を収集し、改善することにした」と説明した。米CNETは、これらの技術をあらためて導入する時期などの計画について、Appleにさらなるコメントを求めたが回答はない。

 Appleはここ数週間、新機能は熟慮され、プライバシーを保護する形で構築されていると主張してきた。同社はこの数年、プライバシーを考慮してデバイスやソフトウェアを設計することを約束しており、Googleの「Android」を搭載するデバイスに代わるものとなることを示してきた。

 最高経営責任者(CEO)のTim Cook氏は、「プライバシーは基本的人権だとAppleは信じている」などとたびたび発言してきた。

 しかし、批判を鎮めることはできなかった。この機能が発表された後、100近くの政策団体や擁護団体が、Appleにこのような技術の導入を再考するよう求める公開書簡に署名した。

 書簡には、「こうした機能は子供を守り、CSAMの拡散を減らすことを目的としているが、保護された言論の検閲や、世界の人々のプライバシーとセキュリティを脅かすことに利用され、多くの子供に悲惨な結果をもたらすのではないかと懸念している」と書かれている。民主主義と技術のためのセンター(Center for Democracy and Technology)、アメリカ自由人権協会(ACLU)、電子フロンティア財団(EFF)、プライバシーインターナショナなどが署名した。

 Appleがこの技術の公開を中断したことに失望したとする声もある。一部の支持者は、Appleは難しい問題に思慮深いアプローチで対応していたなどと主張している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]