Twitterは2006年のサービス開始以来、大規模な交流会、行きつけの飲み屋、ミームの発信源、雑談の集いなどをまとめて1つにしたような存在になった。ただし、280文字(日本語では全角140文字)以内のツイートの中には、タイムリーなニュースや機知に富んだコメントがあるかと思えば、暴力的で憎悪に満ちた投稿もみられる。
Twitterの負の側面を抑える戦略を研究している専門家の中でも、ニューヨーク大学のチームは、ヘイトスピーチがアカウント停止につながると警告することが有効な手法かどうかをテストする実験を行った。その結果、かなりの効果を発揮する可能性のあることが分かったという。
研究チームが4300人以上のTwitterユーザーと60万件以上のツイートを調査した結果、利用者にアカウント停止の可能性を警告すると、「悪意に満ちた言葉が1週間にわたって大幅に減少する」ことが分かったという。この減少は、警告文が丁寧な言い回しだった場合に、より顕著だったとしている。
研究チームの論文は、政治科学に関する英国の学術誌「Perspectives on Politics」に現地時間11月22日に掲載された。この論文が、ソーシャルメディアを汚染する人種差別的で敵意に満ちた、悪質なコンテンツに対処する一助になることが望まれる。
ニューヨーク大学の博士号取得候補者で論文の主執筆者であるMustafa Mikdat Yildirim氏は、次のように述べた。「ソーシャルメディアのアカウント凍結や悪質なユーザーに対する禁止措置の有効性をめぐっては、議論がさかんに行われている。だが、ヘイトスピーチを減らすためにユーザーにアカウントの凍結や完全な利用停止を警告することについては、その効果がほとんど分かっていない」
「警告の効果は一時的だが、この研究はヘイトを含む言葉の利用を減らそうとするプラットフォームに対し、可能性のある道筋を示すものだ」(同氏)
同氏によると、こうした警告はTwitterが発したものである必要はない。研究チームが作成した、フォロワーが100人以下の標準的なTwitterアカウントから警告した場合でも、1ユーザー当たりのヘイトスピーチを含むツイートの割合は10~20%低下したという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス