YouTube、不適切動画830万本を3カ月で削除--80%以上を機械学習で特定

Steven Musil (CNET News) 翻訳校正: 緒方亮 高森郁哉 (ガリレオ)2018年04月25日 10時04分

 YouTubeは、2017年の最後の3カ月で約830万件の動画を削除した。同社サイト上の不適切なコンテンツに対する対応が遅いという批判を受けたもの。

 YouTubeは米国時間4月23日、同社初となる四半期のコミュニティガイドライン適用状況レポートを公開し、削除した動画の過半数がスパムや、アダルトコンテンツをアップロードしようとしたものだったことを明らかにした。削除された動画の80%以上は、人間ではなく機械によって特定されていた。このことは、YouTubeがサイトのポリシーに違反するコンテンツの削減に関し、機械学習への依存度を高めてきたことを浮き彫りにしている。

 YouTubeは公式ブログで「削除の時間短縮に役立つ機械学習に対する当社の投資は、高リスクで数が少ない分野(暴力的な過激主義など)と、数が多い分野(スパムなど)の両方で成果をあげている」とし、「当社はまた、暴力的な過激主義、テロ対策、人権などに詳しい専門家をフルタイムで雇い入れ、諸地域の専門家チームも拡充した」と述べた。

 YouTubeの最高経営責任者(CEO)であるSusan Wojcicki氏はかつて、コンテンツのレビューやアルゴリズムのトレーニングを実施するコンテンツモデレーターなどの従業員の数を、親会社のGoogleが2018年に1万人以上に増員するとブログで説明していた。

 YouTubeの23日の発表によると、2017年10月〜12月に機械が判定した約670万本の動画のうち、76%は一度も視聴されることなく削除されたという。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]