YouTubeは、2017年の最後の3カ月で約830万件の動画を削除した。同社サイト上の不適切なコンテンツに対する対応が遅いという批判を受けたもの。
YouTubeは米国時間4月23日、同社初となる四半期のコミュニティガイドライン適用状況レポートを公開し、削除した動画の過半数がスパムや、アダルトコンテンツをアップロードしようとしたものだったことを明らかにした。削除された動画の80%以上は、人間ではなく機械によって特定されていた。このことは、YouTubeがサイトのポリシーに違反するコンテンツの削減に関し、機械学習への依存度を高めてきたことを浮き彫りにしている。
YouTubeは公式ブログで「削除の時間短縮に役立つ機械学習に対する当社の投資は、高リスクで数が少ない分野(暴力的な過激主義など)と、数が多い分野(スパムなど)の両方で成果をあげている」とし、「当社はまた、暴力的な過激主義、テロ対策、人権などに詳しい専門家をフルタイムで雇い入れ、諸地域の専門家チームも拡充した」と述べた。
YouTubeの最高経営責任者(CEO)であるSusan Wojcicki氏はかつて、コンテンツのレビューやアルゴリズムのトレーニングを実施するコンテンツモデレーターなどの従業員の数を、親会社のGoogleが2018年に1万人以上に増員するとブログで説明していた。
YouTubeの23日の発表によると、2017年10月〜12月に機械が判定した約670万本の動画のうち、76%は一度も視聴されることなく削除されたという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス