Appleは先週、次期ソフトウェアアップデートに、ユーザーの「iPhone」「iPad」「Mac」「Apple Watch」をスキャンし、児童性的虐待の素材を検出する機能を追加すると発表して、波紋を呼んだ。この件について、同社は米国時間8月9日に新たな文書を公開し、この機能にまつわるプライバシーへの懸念を払拭しようとしている。
「Expanded Protections for Children」(児童保護の拡大)と題するこの文書は6ページからなり、この新機能に関するFAQ(よくある質問)で構成されている。
「Appleの目標は、人々の安全を維持しつつ、人々に力を与え、人々の生活を豊かにする技術を創造することにある。コミュニケーションツールを使って児童を勧誘して利用する悪人から児童を守り、児童性的虐待素材(CSAM)の拡散を制限したい」」と冒頭の概要部分には記されている。
同社は、この機能がどのように使われるかについて一部から懸念が示されていることを認め、「そうした疑問に答え、このプロセスの明瞭性と透明性を高める」ために、この文書を作成したとしている。
Appleによると、写真をスキャンするこのCSAM対策機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報をAppleに一切提供せずに、iCloud写真からCSAMを排除することを目的に設計されている」という。同社は、そうした画像を所有する行為も、米国を含むほとんどの国で「違法」だとしている。
Appleは、この機能について、iCloud写真を使って写真を保存するユーザーのみに適用される予定で、「iCloud写真の利用を選ばないユーザーには影響しない」としている。
また、Appleによると、この機能は「デバイス上のその他のデータに対する影響」は一切なく、「『メッセージ』には適用されない」という。同社は、この機能をCSAM以外の画像に拡張することを目的とした各国政府からの要求には一切応じないことも強調している。
「これまでに、ユーザーのプライバシーを損なうような、政府の命令に基づく変更を構築し導入するよう求められたことがあるが、そうした要求は断固として拒否してきた。今後もそうした要求には応じない」と同社は記している。
ユーザーを正しく特定する精度については、「任意のアカウントに対してシステムが誤ってフラグを立てる確率は、1年に1兆分の1」で、同社は全米行方不明・被搾取児童センター(NCMEC)に報告する前に「人間による確認」をするという。「システムエラーやシステム攻撃によって、何の罪もない人がNCMECに報告されることはない」と同社は結論付けている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス