アップルの児童ポルノ画像検出は誤解されている--ソフトウェア責任者が語る

Ian Sherr (CNET News) 翻訳校正: 編集部2021年08月16日 08時04分
  • 一覧
  • このエントリーをはてなブックマークに追加

 Appleは児童の性的虐待コンテンツ(CSAM)を検出するために、「iPhone」「iPad」「Mac」から「iCloud」に保存される写真をスキャンする計画だ。これに対し、プライバシー擁護者やセキュリティ研究者は困惑し、この技術が監視や政治的検閲に利用される可能性を懸念している。Appleは、そうした懸念が見当違いであり、同社が開発した技術に対する誤解に基づいていると説明した。

iPhone
提供:Patrick Holland/CNET

 Appleのソフトウェアを統括するCraig Federighi氏は、The Wall Street Journalが米国時間8月13日に公開したインタビューの中で、人々に懸念を与えた最大の要因は、同社によるその計画の発表方法がまずかったことにあると述べた。例えば、Appleは、スマートフォン上のすべての写真をスキャンするのではなく、iCloudフォトライブラリーの同期システムに接続されたものだけをスキャンする。また、写真を実際にスキャンするのではなく、そのコードの1バージョンを既存の児童虐待画像のデータベースに照合する。

 「どのように理解されるかという点で、多くのメッセージがひどくごちゃ混ぜになってしまったことは明らかだ」とFederighi氏はインタビューで述べ、「この取り組みについて前向きで強い思いを抱いているため、皆さんにもう少し明確に伝わればよかったと思う」とした。

 「他のクラウドサービスを見ると、現時点では、クラウド内の写真を1枚1枚確認して解析することにより、写真をスキャンしている。われわれは、クラウド内のそうした写真を、ユーザーの写真を見ることなく検出できるようにしたいと考えた」と同氏は述べた。さらに「『風呂に入っている自分の子供の写真を所有しているか』や、そういう意味では『ポルノ画像に相当する写真を所有しているか』という解析も、実行しない。特定の既知の児童性的画像の正確なフィンガープリントと照合するだけだ」とした。

 Federighi氏はAppleのシステムについて、「複数レベルの監査可能性」によって誤用されないように保護されており、プライバシーの低下ではなく保護を促進するものだと信じていると述べた。Appleは、社外の専門家が同社のシステムを監査できるようにするための1つの方法として、同社データベースのハッシュ(識別可能な一意のコード)をオンラインに公開するとしている。このハッシュは、2つ以上のそれぞれ独立した児童保護団体の支援がなければ作成できないもので、これに何らかの変更が加えられた場合、セキュリティ専門家は、それを検出することができる。児童保護団体も、Appleのシステムを監査することができるという。

 Federighi氏はさらに、このスキャン機能は、同社の「メッセージ」アプリを使ったSMSや「iMessage」で露骨な画像を送受信する場合に子供たちにアラートを表示するという、Appleの他の計画とは別であることを指摘した。Appleによると、アラートの表示は、保護者と児童の教育が目的であり、対象画像をスキャンして児童虐待画像のデータベースと照合することはないという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]