Facebookから流出したとされる内部文書の情報としてThe Guardianが報じたところによると、Facebookユーザーが自傷行為のライブ配信を認められているのは、同社が「自殺を試みようとして苦しんでいる人々を検閲したり、罰したりしたくない」からだという。
それらの文書によると、「その人物を助ける機会が失われてしまったら」、その事件にニュース価値がない限り、その画像はサイトから削除されるという。そのポリシーは、100を超える内部文書やマニュアルに書かれていた。それらの文書を読めば、Facebookが暴力やヘイトスピーチ、テロリズム、ポルノ、人種差別、さらには人肉嗜食までもを含む同サイト上のコンテンツをどのようにモデレートしているのかが分かる、とThe Guardianは伝えている。
The Guardianによると、自傷行為がFacebookに投稿される事例が増加しており、Facebookはこうした状況を憂慮しているという。The Guardianが調べた文書によると、2016年夏の2週間に4531件の自傷行為が報告されたが、2017年の同様の期間には5431件が報告されたという。
報道によると、Facebookはモデレーターと共有したポリシーアップデートの中で、「自殺も含めて、Facebook上で動画コンテンツが共有されることが増えている。自殺を試みようとして苦しんでいる人々を検閲したり、罰したりしたくない。これらの人々の安全にとって最良のことは、彼らが閲覧者と関わりを持っている限り、ライブ配信を続けさせてあげることだ、とわれわれは専門家たちから聞いている」と述べたという。
「ただし、伝播リスク(つまり、自殺を目撃した人は自殺を考える可能性が高くなる)もあるので、これらの動画を見る人々の安全にとって最良のことは、配信者を助ける機会が失われた時点で、われわれが動画を削除することだ。われわれはニュースとしての価値を検討する必要もある。特定の瞬間や公的な出来事が広く一般の人々の間で話し合われているときは、それらを削除せずに公開し続ける方が適切かもしれない」
これらの文書では、FacebookのモデレーターがリベンジポルノやDonald Trump米大統領に対する脅迫、動物虐待の画像など、問題のあるさまざまな活動を含む投稿に対処すべき方法が説明されているという。
Facebookはそれらの文書が本物であると認めることは控えたが、ユーザーの安全が同社の最大の関心事だと述べた。
「より多くの人に投資することに加えて、われわれはコミュニティーの安全を維持するため、より良いツールの構築にも取り組んでいる。このツールについて、さらに問題を報告しやすく、当社の基準に違反する投稿をレビュアーがより早く判断できるようにし、また支援を必要とする人がいれば法執行当局に連絡しやすいようにしていく」(Facebook)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス