Facebookは米国時間10月17日、同社の人工知能(AI)プログラムがFacebook上の暴力的なコンテンツを抑制し、削除する効果がほとんどないとの報道に反論した。The Wall Street Journal(WSJ)は、2年前の社内文書を元に、Facebookのアルゴリズムは、規則に違反する問題のあるコンテンツのごくわずかな割合しか削除しないと同社のエンジニアが見積もっていたと報じた。
WSJによると、シニアエンジニアでリサーチサイエンティストの人物が、2019年半ばのメモで、「問題は、特に繊細な領域で、われわれはインテグリティを損なうものの大半を捉えるモデルさえ有しておらず、おそらく今後も持たないことだ」としていた。
そうした中、Facebookにおけるヘイトコンテンツの蔓延率は、この3四半期で50%近く減少し、閲覧されるコンテンツの約0.05%、すなわち1万件に5件となったとFacebookは主張している。
Facebookのインテグリティ担当バイスプレジデントGuy Rosen氏は、17日付けのブログ記事で、「リーク文書からのデータは、当社がヘイトスピーチ対策に使う技術が不十分で、われわれが進捗状況を意図的に不正確に伝えているという論調を作り上げるために利用されている」とし、「それは真実ではない」と述べた。
Rosen氏は、「われわれは、当社のプラットフォームでヘイトスピーチを見たくない。ユーザーや広告主も同じだ。そしてわれわれは、それを削除するための取り組みについて明白にしている」としている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス