Ian Russell氏の10代の娘が2017年に自殺した際、悲しみにくれたRussell氏は自殺の理由を知ろうと娘のSNSアカウントにアクセスした。
Russell氏は、14歳だった娘のMollyさんが、自殺を勧めるミームを含む自傷行為についての画像を見ていたことを知った。そうした画像は、Facebook傘下のInstagramやPinterestなど、人気のあるSNSや画像共有サービスで表示されていた。
Mollyさんが亡くなってから、Russell氏はSNS企業に対し、自傷行為や自殺を勧めるコンテンツともっと真剣に取り組むよう強く要請するようになった。同氏はこうしたコンテンツが娘の死に影響を与えたと語る。英国在住のRussell氏は、ソーシャルメディア企業に対し、こうしたコンテンツの潜在的な危険性を研究できるよう研究者にデータを提供するよう呼び掛け、政府による規制を提唱している。
「時が経つにつれて、プラットフォーム企業はどうすべきか本当に理解していないのだと確信するようになった。何か行動を起こすようプッシュされれば動く。それは広報活動であることが多い」とRussell氏は語った。
Russell氏の要請などの圧力は、The Wall Street Journalによる最近の一連の記事をきっかけに高まっている。同紙は、世界最大のSNS企業であるFacebookが、自社サービスがユーザーのメンタルヘルスに与える可能性のある害を認識しているにもかかわらず、公にはそのリスクを軽視していると報じた。Facebookの安全責任者、Antigone Davis氏は9月30日、FacebookとInstagramの子どものメンタルヘルスへの影響に関する米上院小委員会による公聴会で証言し、議員から追及を受けた。
The Wall Street Journalが入手したInstagramに関するある内部調査資料によると、自殺願望のある10代のユーザーのうち、英国では13%、米国では6%がInstagramをきっかけとしていたことが明らかになった。Facebookは同紙の一連の記事について、社内の調査資料を誤って特徴づけており、若者はSNSで前向きな体験もしていると反論した。それでも同社は27日、開発中の未成年向けInstagramのプロジェクトを一時停止すると発表した。
Facebook、Instagram、Twitter、TikTok、Pinterestはすべて、自殺と自傷行為の促進または奨励を禁止するポリシーを持っており、ユーザーを自殺予防のリソースに誘導するようにしている。また、これらのサービスは、人々がメンタルヘルスの問題を共有したり、支援を得たりすることを妨げたくないとしている。
Facebookのコミュニティ規定には「故意によるか意図せずにかを問わず、自殺や自傷行為を称賛したり助長したりすることは認められていませんが、このようなトピックについて議論することは認められています。これは、利用者間で自分の体験を共有したり、こうした問題への意識を喚起したり、互いに手を差し伸べたりできる場所でありたいというFacebookの理念に基づく方針です」とある。
これらのサービスの中には、自傷行為や自殺の検索結果をブロックまたは制限するものもあれば、自殺関連のコンテンツを見ようとすると警告するものもある。有害なコンテンツのモデレーションの厳しさはサービスによって異なる。
いずれにしても、Russell氏などの保護者が懸念するような画像は、オンラインで容易に見つけることができる。
この問題は、例えばキーワードを制限するというような安易な方法では解決できないと研究者は語る。
InstagramとPinterestの自殺コンテンツについて研究するバージニアコモンウェルス大学助教授、Jeanine Guidry氏は、「一部の検索をブロックすれば済むという話ではない」と語った。同氏は、近年これらのサービスは改善されてきてはいるが「少し探せば関連するメッセージが見つかる」と語る。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス