YouTubeは米国時間11月3日、不適切な内容を含む可能性のあるコメントを自動的に特定し、確認のために保留するテスト機能を導入することを明らかにした。この新しいベータ版のツールを適用するよう選択すれば、アルゴリズムが特定したコメントは保留になり、クリエイター(動画制作者)が承認、非表示、または報告するかどうかを判断できるようになる。
コメント内の特定の単語やフレーズをブラックリストに登録するYouTubeの既存のツールに少し似ているが、それよりも強化されている。YouTubeのアリゴリズムは、クリエイターがこれまでに削除したコメントと同じ特徴を持つコメントや、不適切な言葉を含む可能性を示すような要素のあるコメントを検出する。
「アルゴリズムは常に正確であるとは限らないと認識している。ベータ版では、問題なく承認できるはずのコメントが保留されたり、ユーザーが保留して削除したいと考えるコメントが検出されなかったりする可能性がある」とYouTubeはブログ記事で説明している。「ユーザーがコメントを確認すると、システムはそのフィードバックを考慮し、保留して確認できるコメントの種類を識別する能力を高めていく」(YouTube)
さらにYouTubeは、コメントをピン留めする機能(特定のコメントをフィードの先頭に表示する)、気に入ったコメントを示す機能、クリエイターのユーザー名を強調する機能(クリエイターのユーザー名のテキストに色を付けて、クリエイターのコメントがフィードで目立つようにする)などのツールも導入している。承認済みクリエイターにはこれまでどおり、名前の横に承認済みを示すチェックマークが表示される。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境