YouTube、新しいコメント機能を発表--不適切な内容の自動検出など

Joan E. Solsman (CNET News) 翻訳校正: 編集部2016年11月04日 08時39分

 YouTubeは米国時間11月3日、不適切な内容を含む可能性のあるコメントを自動的に特定し、確認のために保留するテスト機能を導入することを明らかにした。この新しいベータ版のツールを適用するよう選択すれば、アルゴリズムが特定したコメントは保留になり、クリエイター(動画制作者)が承認、非表示、または報告するかどうかを判断できるようになる。

 コメント内の特定の単語やフレーズをブラックリストに登録するYouTubeの既存のツールに少し似ているが、それよりも強化されている。YouTubeのアリゴリズムは、クリエイターがこれまでに削除したコメントと同じ特徴を持つコメントや、不適切な言葉を含む可能性を示すような要素のあるコメントを検出する。

 「アルゴリズムは常に正確であるとは限らないと認識している。ベータ版では、問題なく承認できるはずのコメントが保留されたり、ユーザーが保留して削除したいと考えるコメントが検出されなかったりする可能性がある」とYouTubeはブログ記事で説明している。「ユーザーがコメントを確認すると、システムはそのフィードバックを考慮し、保留して確認できるコメントの種類を識別する能力を高めていく」(YouTube)

 さらにYouTubeは、コメントをピン留めする機能(特定のコメントをフィードの先頭に表示する)、気に入ったコメントを示す機能、クリエイターのユーザー名を強調する機能(クリエイターのユーザー名のテキストに色を付けて、クリエイターのコメントがフィードで目立つようにする)などのツールも導入している。承認済みクリエイターにはこれまでどおり、名前の横に承認済みを示すチェックマークが表示される。


提供:Google

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]