Appleが「iCloud」サービスなどで児童性的虐待コンテンツ(CSAM)の拡散を防ぐ対策を講じなかったとして、カリフォルニア州北部地区連邦地方裁判所に集団訴訟が提起された。原告側は、AppleがCSAM検出のために開発していたソフトウェアの実装を断念したことは、意図的に拡散を許容したことに等しいとも主張している。
2021年、AppleはCSAMを検出するために、デバイスとiCloud上の画像をスキャンする複数の取り組みを始めた。その1つは、iCloudに保存されたファイルをチェックするものだ。当時、全米行方不明・被搾取児童センター(NCMEC)の責任者であるJohn Clark氏は、この技術を「ゲームチェンジャー」と評した。
しかし、プライバシーやセキュリティの保護団体、デジタル著作権保護団体からの苦情を受け、Appleは2022年末までに、iCloud内の画像スキャンを含む計画の一部を断念した。
The New York Timesは先週末、匿名の原告1人への取材に基づく記事を掲載し、被害者の中には、自分が被害を受けた際の画像を所持していた人物が起訴されたという法執行機関からの通知を毎日のように受け取っている人もいると報じた。この27歳の原告は同紙に対し、Appleが自分のような被害者を守るという約束を破ったため訴訟に参加したと述べた。
陪審員団がAppleに責任があると判断した場合、Appleは12億ドル(約1800億円)以上の賠償金を科される可能性がある。
8月にはノースカロライナ州で、9歳の性犯罪被害者を代表する同様の個人訴訟が提起されている。
Appleは、この訴訟に関するコメントの依頼にすぐには応じなかったが、週末に声明を発表した。広報担当のFred Sainz氏は次のように述べた。「児童に対する性的虐待のコンテンツは憎むべきものであり、われわれは子供を危険にさらす性犯罪者の手口と戦うことに注力している。全ユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うために、迅速かつ積極的に革新に取り組んでいる」
Sainz氏は、Appleの既存機能である「コミュニケーションの安全性機能」を例に挙げ、この機能は子供たちがヌードを含むコンテンツを送受信しようとした際に警告すると説明した。「われわれは、CSAMの拡散を未然に防ぐための保護機能の構築に、引き続き重点的に取り組んでいる」(同氏)
訴状(PDF)この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
「もったいない」という気持ちを原動力に
地場企業とともに拓く食の未来
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」