Google傘下のYouTubeは、同社の動画プラットフォームがテロリストのコンテンツの宣伝に使われることを防ぐ継続中の取り組みに関して、このほど進捗状況を発表した。
Googleが6月に発表した当初の4つの措置には、以下のような目標が挙げられていた。「過激派やテロリズムに関する動画を特定するのに役立つ」新技術を利用すること、動画にフラグを立てる人間の専門家を増員すること、YouTubeのポリシーに違反しそうだが明確に違反しているわけではない動画から利益を得る機会を取り除くこと、テロリストに反対する動画の投稿と促進により先鋭化に対抗する取り組みを拡大させることだ。
YouTubeは米国時間8月1日に公開した最新情報の中で、これらすべての分野、特に以下の点で前進していると述べた。
スピードと効率性:われわれの機械学習システムはこれまで以上に高速で効果的だ。過去1カ月間で、暴力的な過激主義のために削除した動画の75%超は、人間によるフラグを1つも受け取らないうちに削除された。
精度:機械学習技術のおかげで、当社のシステムの精度は劇的に向上した。これらのツールは完全ではなく、あらゆる環境で適切というわけではないが、当社のシステムは多くの場合において、削除する必要のある動画に人間がフラグを立てるよりも正確であることが証明されている。
規模:(中略)過去1カ月間で、機械学習の初期利用により、暴力的な過激主義を理由に削除した動画の数も、そうしたコンテンツの削除率も2倍超に増えた。
YouTubeはさらに、より厳しい基準を定めて、「当社のポリシーに違反してはいないものの、議論を呼ぶ宗教的または至上主義者のコンテンツを含む」動画に対し、コメントやリコメンドがされないようにするという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス