ユーザープライバシーに対するAppleの姿勢をめぐって議論が繰り広げられる中、同社が児童の性的虐待コンテンツ(CSAM)を検出するために、一部のユーザーの電子メールを2019年からスキャンしていたという新たな報道が浮上した。Appleは8月に入り、CSAMを検出するためにユーザーの「iPhone」「iPad」「Mac」をスキャンする仕組みを導入すると発表し、セキュリティやプライバシーを擁護する人々からは、その仕組みが政府による監視に利用される可能性が懸念されていた。
同社は9to5Macに対し、CSAMを検出するために「iCloudメール」の電子メールを2019年からスキャンしていたと述べた。その処理の詳細が顧客に明示的に開示されたことはなかったと思われる。Appleは、同社のウェブサイトの以前のバージョンに、「電子署名」を確認することにより、「画像マッチング技術を使用して、児童虐待を検出して報告している」と記載していたが、それ以上の詳細は明らかにしていなかった。Appleは9to5Macに対し、他のデータの「限定的な」スキャンも実行していたと述べたが、それ以上の詳細については、「iCloud」のバックアップはそれに含まれていなかったと述べるにとどまった。
Appleはコメントの依頼にすぐには応じなかった。
Appleは、新しいスキャン技術を発表した際、iCloud写真を利用しているデバイスをスキャンする計画であることを強調していた。同社のサーバーではなくデバイスをスキャンするという。これにより、プライバシー擁護者が同社のシステムを監査して、何らかの誤用がないことを確認できるとしていた。
「他のクラウドサービスを見ると、現時点では、クラウド内の写真を1枚1枚確認して解析することにより、写真をスキャンしている。われわれは、クラウド内のそうした写真を、ユーザーの写真を見ることなく検出できるようにしたいと考えた」と、Appleのソフトウェアエンジニアリングを統括するCraig Federighi氏は、8月のThe Wall Street Journalとのインタビューで述べていた。
プライバシー擁護者はAppleの動きを疑問視しているが、この取り組みの背景として、CSAMがウェブ上で急増していることがある。The New York Timesの記事によると、CSAMは2020年に50%増加したという。その大半がFacebookによって報告されたものだ。Appleの不正防止部門の責任者はこの問題がより大きい可能性を指摘しており、同社がプライバシーを優先することで「児童ポルノ拡散のための最大のプラットフォーム」になっていると非公開メッセージで述べた。このメッセージは、同社とEpic Gamesとの訴訟に関する資料の中から見つかった。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する