Appleは米国時間11月9日、メッセージアプリでヌード画像の送受信から子供を守るための機能のベータテストを開始すると述べた。批評家らのフィードバックを受けてAppleが調整を加えたこの新機能は、児童虐待防止を目的とした一連の機能の1つだ。
この新機能は、子供として登録されているユーザーに送信されたメッセージの添付ファイルを分析して、ヌード画像が含まれていないかを確認するもの。Appleによると、そのプロセスでメッセージの暗号化は維持され、写真や検知の痕跡が端末に残らないようになっているという。
Appleは、そのシステムの動作方法も変更したという。Appleは当初、ヌードを含むとして検出された画像を13歳未満の子供が表示または送信すると、その保護者にアラートを送信することにしていた。現在は、信頼する誰かにアラートを送信するかどうかを、子供が選択できるようにしている。また、その選択は、問題の画像を子供が表示したかどうかとは切り離されている。
Appleは、子供を保護するための手段を自社デバイスに追加する取り組みを進めており、この機能はその流れを汲むものだ。Appleは8月、メッセージアプリでの送受信や「iCloud」における児童虐待画像を検出する機能を導入すると発表したが、9月に延期を発表していた。Appleは、画像のスキャンに自社サーバーを使用するのではなく、端末上で画像をスキャンする技術を構築したと説明していた。
今回のメッセージ検出機能は、延期された機能とは異なる。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」