Facebookは、同社プラットフォーム上のヘイトスピーチを取り締まるアルゴリズムの大規模な刷新に取り組んでいるという。まだ初期段階にあるというその作業では、「最悪の中の最悪」とみなされる憎悪表現をより確実に検出して削除するように、自動モデレーションシステムを再設計するなどの変更が加えられると、The Washington PostがFacebookの社内文書を基に報じた。
同紙の米国時間12月4日の記事によると、Facebookはかなり前からヘイトスピーチを禁止してきたが、新たな方針ではすべてのヘイトスピーチを同様に扱うのをやめるという。今回の全面刷新の一環として、Facebookのシステムは、黒人、イスラム教徒、多人種の混血である人々、LGBTQコミュニテイーやユダヤ人に向けられた憎悪あるコメントの検出と削除を優先すると、社内文書には書かれているとされる。白人、米国人、男性に向けられた一部の憎悪あるコメントについて、検出の優先順位を下げるなどの変更も加えられるという。
Facebookは、専門家らが最も深刻と指摘するヘイトスピーチを捉えるように、同社の自発的な検出システムを更新していることを認めた。更新内容は、社内外の研究や専門家らとの連携によって得られた洞察に基づいているという。
Facebookの広報を担当するSally Aldous氏は電子メールで、「過小評価されたグループに向けられたヘイトスピーチが、最も憎悪に満ちたものになりがちであると認識しており、ユーザーや専門家から最も深刻だという意見が寄せられているヘイトスピーチの検出に技術の焦点を絞ったのはそのためだ」と述べた。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」