Facebookは、世界最大のソーシャルネットワーク上で見つかった潜在的ダメージに関して、ささやかなダメージコントロールを実施する取り組みの中で、ユーザーから送信された報告を同社がどのように取り扱うかを明らかにする指針を発表した。
Facebookは最初に、送信される報告に対し、「Facebookチームがいつでも確実に報告に対処できるよう」、世界中のオフィスに散在する多数の従業員が毎日24時間対応する、と説明している。
それだけでなく、これらの報告の対処方法を示すフローチャートも公開された。
報告対象がスパムか、さらに悪質なものかに応じて、FacebookのUser Operations部門は専門の4チームに分割され、特定の報告タイプ(安全性、憎悪や嫌がらせ、アクセス問題、不正コンテンツ)について精査する。
その先は、数通りの対応が想定されている。報告されたコンテンツが無価値でFacebookのポリシーを侵害していると判断された場合、そのコンテンツは削除され、投稿したユーザーは警告を受ける。
だが、コンテンツがきわめて悪質な場合(露骨な写真、なりすましアカウント、不快なコンテンツなど)、報告は一気に法執行機関へと送られる可能性がある。検索やソーシャルネットワーキングを手がける主要企業の大半は、すでにこうした指針を事業の基盤として整えているため、これは決して異例の措置というわけではない。だが、Facebookは機会を利用して、すべてのユーザーが理解可能と考えられるシンプルなフローチャートでこの指針を公開することにより、透明性を高めようとしている。
Facebookには、この指針を公開する動機がさらにいくつかある。まずFacebookは、ユーザーに対し、どのコンテンツを有害だとして同社に報告するかについて、気まぐれになりすぎないよう知らせたいはずだ。だが同時に、Facebookがユーザーからの報告を真摯に受け止めていることを示して、9億人以上の登録ユーザーを安心させる狙いもある。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」