YouTube、攻撃的なコメントの投稿前に再考を促す機能を追加

Joan E. Solsman (CNET News) 翻訳校正: 編集部2020年12月04日 13時28分
  • 一覧
  • このエントリーをはてなブックマークに追加

 YouTubeは米国時間12月3日、コメントの内容が攻撃的である可能性があると人工知能(AI)に判定された場合に、投稿の再検討を促すメッセージを表示する機能を実装すると発表した。

YouTubeロゴ
YouTubeの月間利用者数は約20億人だ。
提供:Angela Lang/CNET

 この機能ではコメントの投稿者に対し、「投稿内容が適切かどうか」分からない場合はYouTubeの「コミュニティガイドライン」を見直すよう提案した上で、内容を修正するか、コメントをそのまま投稿するかを選択させる。

警告メッセージ
提供:YouTube

 YouTubeは、公式ブログでこの機能を含む複数の対策を発表し、「YouTubeで礼節ある会話を推奨するため、ユーザーのコメントが他者を不快にさせる可能性がある場合に警告し、投稿する前に再考できるようにする新機能を追加する」と述べた。これらの対策はいずれも、より多様なユーザーに配慮したプラットフォームとなるための試みだとしている。

 この機能は「Android」向けに提供されている。コメントを投稿する際にメッセージが表示されなかったとしても、コミュニティガイドラインに反していると見なされば削除される一方、メッセージの対象となったコメントをそのまま投稿したとしても必ず削除されるわけではない。コミュニティガイドラインは実質的に、YouTubeで認められる行為と禁止行為の線引きをするルールブックだ。

 YouTubeのシステムは、ユーザーが繰り返し不適切なコメントとして報告した投稿から学習することにより、攻撃的な内容を含む可能性のある投稿を選別する。

 同社は長年、対処を検討するべき問題には事欠かない企業だった。具体的には誤情報や陰謀論、差別、ハラスメント、大量殺人や児童への搾取と虐待を映した動画の投稿などだ。一方、コメント機能も依然として、有害となる可能性が認識されている。

 YouTubeは約20億人の月間ユーザーを有し、毎分500時間を超える動画が投稿される。こうした巨大な規模ゆえに、同社は機械学習を動画のおすすめ機能だけでなく、プラットフォームの健全性維持にも利用している。例えば9月には、18歳未満のユーザーに対してブロックすべき動画を、AIを使って自動的に判別すると発表した。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]