Appleは、iOS 15 / iPadOS 15 / macOS Montery / watchOS 8に対して、児童の性的虐待コンテンツ「CSAM」の検出に関する3つの新機能の導入を発表した。これに対して、賛否が渦巻いており、Appleは対応に苦慮している。
これらの機能は、以下の通りだ。
児童の性的虐待やそれを助長する情報をAppleデバイス上から排除しようという試みで、家族単位での利用や教育セクターに力を入れるAppleとしては取り組みたかったテーマだと言える。現状そうした取り組みをデバイスやOSレベルで実現しようという試みは見当たらない。
その一方で、情報の送受信に関連してAppleがコンテンツをスキャンすることそのものに対する懸念や、全体主義的な政権に悪用される危険性があるシステムをAppleが作ってしまった恐れがあり、反発も招いている。
たとえば、今回対象となるCSAMではなく、反政府的な画像やビデオであっても、送受信やバックアップ前にスキャンしうることを、Appleは自ら証明してしまった。近年のデータプライバシーに関連して、中国のデータを中国国内に保存することに同意するなど、中国当局に協力的な姿勢であることから、そうした懸念に対する指摘が生まれてしまった。
Appleはこの機能について、補足説明をしたり、幹部がインタビューに応えたりするなど、ユーザーの理解を求めようとしている。機能の解説ページでは、以下のようなメッセージを出している。
またAppleのソフトウェアを統括するシニアバイスプレジデント、Craig Federighi氏は、この機能の発表の仕方が悪かったと、混乱を招いた原因を釈明した。前述のように本稿で整理したが、複数の取り組みを同時に発表してしまったため、分かりにくくなっているとしている。
Federighi氏によると、iMessageで子どもたちに送受信の際に警告を出す機能と、iCloudフォトライブラリーの写真のスキャンとは全く別のものだとしている。前者は児童と保護者への教育が目的であり、児童虐待画像データベースとの照合を伴わない機能だ。
後者に関しては、クラウドの写真を1枚ずつ確認して解析するのではない方法での検出を目指しており、特定の既知のCSAMとの正確なフィンガープリントの照合を行うとしている。そのため、プライバシーについてはむしろ促進するものだと述べた。
アップル、児童の性的虐待を防ぐための機能をOSに導入へ--「iCloud」の画像検出など(8/6) アップル、児童虐待画像の検出技術に関するFAQを公開(8/10) アップルの児童ポルノ画像検出は誤解されている--ソフトウェア責任者が語る(8/16)CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス