Facebookは人工知能(AI)と機械学習を利用して、子供の裸や搾取的なコンテンツをアップロード時に積極的に検出している。同社が米国時間10月24日、それに関連するさまざまな取り組みを詳しく説明する投稿の中で明らかにした。AIと機械学習を、写真マッチングなどの技術と組み合わせて使っている。Facebookによると、同社は以前に投稿されたことがある児童搾取画像の共有を阻止するため、何年も前から写真マッチング技術を利用しているという。
7月から9月の3カ月間に、Facebookは子供の裸や子供の性的搾取に関するポリシーに違反した870万件のコンテンツ(入浴中の子供を撮影した写真など、無害に見えるコンテンツも含む)をプラットフォームから削除した。同社は、この種のコンテンツを宣伝するアカウントも削除していると述べた。
Facebookには13歳以上という年齢制限があり、同社によると10代の若者が登録後に交流できる相手も制限されている。AIを使用することで、同社は搾取的なコンテンツをより迅速に特定して、全米行方不明・被搾取児童センター(National Center for Missing & Exploited Children)に通報したり、Facebookで子供たちと不適切なやりとりをした可能性のあるユーザーを見つけて対処したりできる。
ただし、コンテンツを選別することは必ずしも容易ではない。同社は8月、ナチスの強制収容所に収監された裸の衰弱した子供たちの写真を削除して物議を醸した。2016年には、ナパーム弾の爆撃を受けて逃げる裸のベトナム人少女を撮影したピューリツァー賞受賞写真が掲載された記事を削除するということもあった。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス