アップルが断念した児童ポルノ検出、集団訴訟に発展

Omar Gallaga (CNET News) 翻訳校正: 編集部2024年12月10日 14時15分

 Appleが「iCloud」サービスなどで児童性的虐待コンテンツ(CSAM)の拡散を防ぐ対策を講じなかったとして、カリフォルニア州北部地区連邦地方裁判所に集団訴訟が提起された。原告側は、AppleがCSAM検出のために開発していたソフトウェアの実装を断念したことは、意図的に拡散を許容したことに等しいとも主張している。

iCloudのログイン画面 提供:CNET
※クリックすると拡大画像が見られます

 2021年、AppleはCSAMを検出するために、デバイスとiCloud上の画像をスキャンする複数の取り組みを始めた。その1つは、iCloudに保存されたファイルをチェックするものだ。当時、全米行方不明・被搾取児童センター(NCMEC)の責任者であるJohn Clark氏は、この技術を「ゲームチェンジャー」と評した

 しかし、プライバシーやセキュリティの保護団体、デジタル著作権保護団体からの苦情を受け、Appleは2022年末までに、iCloud内の画像スキャンを含む計画の一部を断念した。

 The New York Timesは先週末、匿名の原告1人への取材に基づく記事を掲載し、被害者の中には、自分が被害を受けた際の画像を所持していた人物が起訴されたという法執行機関からの通知を毎日のように受け取っている人もいると報じた。この27歳の原告は同紙に対し、Appleが自分のような被害者を守るという約束を破ったため訴訟に参加したと述べた。

 陪審員団がAppleに責任があると判断した場合、Appleは12億ドル(約1800億円)以上の賠償金を科される可能性がある。

 8月にはノースカロライナ州で、9歳の性犯罪被害者を代表する同様の個人訴訟が提起されている。

 Appleは、この訴訟に関するコメントの依頼にすぐには応じなかったが、週末に声明を発表した。広報担当のFred Sainz氏は次のように述べた。「児童に対する性的虐待のコンテンツは憎むべきものであり、われわれは子供を危険にさらす性犯罪者の手口と戦うことに注力している。全ユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うために、迅速かつ積極的に革新に取り組んでいる」

 Sainz氏は、Appleの既存機能である「コミュニケーションの安全性機能」を例に挙げ、この機能は子供たちがヌードを含むコンテンツを送受信しようとした際に警告すると説明した。「われわれは、CSAMの拡散を未然に防ぐための保護機能の構築に、引き続き重点的に取り組んでいる」(同氏)

訴状(PDF)
The New York Times
コミュニケーションの安全性機能(Apple)

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]