アップル、「iCloudメール」を2019年からスキャンか--児童ポルノ対策で

Ian Sherr (CNET News) 翻訳校正: 編集部2021年08月24日 11時01分

 ユーザープライバシーに対するAppleの姿勢をめぐって議論が繰り広げられる中、同社が児童の性的虐待コンテンツ(CSAM)を検出するために、一部のユーザーの電子メールを2019年からスキャンしていたという新たな報道が浮上した。Appleは8月に入り、CSAMを検出するためにユーザーの「iPhone」「iPad」「Mac」をスキャンする仕組みを導入すると発表し、セキュリティやプライバシーを擁護する人々からは、その仕組みが政府による監視に利用される可能性が懸念されていた。

iPhone
提供:Angela Lang/CNET

 同社は9to5Macに対し、CSAMを検出するために「iCloudメール」の電子メールを2019年からスキャンしていたと述べた。その処理の詳細が顧客に明示的に開示されたことはなかったと思われる。Appleは、同社のウェブサイトの以前のバージョンに、「電子署名」を確認することにより、「画像マッチング技術を使用して、児童虐待を検出して報告している」と記載していたが、それ以上の詳細は明らかにしていなかった。Appleは9to5Macに対し、他のデータの「限定的な」スキャンも実行していたと述べたが、それ以上の詳細については、「iCloud」のバックアップはそれに含まれていなかったと述べるにとどまった。

 Appleはコメントの依頼にすぐには応じなかった。

 Appleは、新しいスキャン技術を発表した際、iCloud写真を利用しているデバイスをスキャンする計画であることを強調していた。同社のサーバーではなくデバイスをスキャンするという。これにより、プライバシー擁護者が同社のシステムを監査して、何らかの誤用がないことを確認できるとしていた。

 「他のクラウドサービスを見ると、現時点では、クラウド内の写真を1枚1枚確認して解析することにより、写真をスキャンしている。われわれは、クラウド内のそうした写真を、ユーザーの写真を見ることなく検出できるようにしたいと考えた」と、Appleのソフトウェアエンジニアリングを統括するCraig Federighi氏は、8月のThe Wall Street Journalとのインタビューで述べていた。

 プライバシー擁護者はAppleの動きを疑問視しているが、この取り組みの背景として、CSAMがウェブ上で急増していることがある。The New York Timesの記事によると、CSAMは2020年に50%増加したという。その大半がFacebookによって報告されたものだ。Appleの不正防止部門の責任者はこの問題がより大きい可能性を指摘しており、同社がプライバシーを優先することで「児童ポルノ拡散のための最大のプラットフォーム」になっていると非公開メッセージで述べた。このメッセージは、同社とEpic Gamesとの訴訟に関する資料の中から見つかった。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]