YouTubeは米国時間12月3日、コメントの内容が攻撃的である可能性があると人工知能(AI)に判定された場合に、投稿の再検討を促すメッセージを表示する機能を実装すると発表した。
この機能ではコメントの投稿者に対し、「投稿内容が適切かどうか」分からない場合はYouTubeの「コミュニティガイドライン」を見直すよう提案した上で、内容を修正するか、コメントをそのまま投稿するかを選択させる。
YouTubeは、公式ブログでこの機能を含む複数の対策を発表し、「YouTubeで礼節ある会話を推奨するため、ユーザーのコメントが他者を不快にさせる可能性がある場合に警告し、投稿する前に再考できるようにする新機能を追加する」と述べた。これらの対策はいずれも、より多様なユーザーに配慮したプラットフォームとなるための試みだとしている。
この機能は「Android」向けに提供されている。コメントを投稿する際にメッセージが表示されなかったとしても、コミュニティガイドラインに反していると見なされば削除される一方、メッセージの対象となったコメントをそのまま投稿したとしても必ず削除されるわけではない。コミュニティガイドラインは実質的に、YouTubeで認められる行為と禁止行為の線引きをするルールブックだ。
YouTubeのシステムは、ユーザーが繰り返し不適切なコメントとして報告した投稿から学習することにより、攻撃的な内容を含む可能性のある投稿を選別する。
同社は長年、対処を検討するべき問題には事欠かない企業だった。具体的には誤情報や陰謀論、差別、ハラスメント、大量殺人や児童への搾取と虐待を映した動画の投稿などだ。一方、コメント機能も依然として、有害となる可能性が認識されている。
YouTubeは約20億人の月間ユーザーを有し、毎分500時間を超える動画が投稿される。こうした巨大な規模ゆえに、同社は機械学習を動画のおすすめ機能だけでなく、プラットフォームの健全性維持にも利用している。例えば9月には、18歳未満のユーザーに対してブロックすべき動画を、AIを使って自動的に判別すると発表した。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス