毎年世界で70万人以上が自殺で亡くなっている。世界保健機関(WHO)によると、自殺は2019年における15歳~29歳の死因の第4位だ。
SNSで自殺や自傷行為に関するコンテンツを見ることは、メンタルヘルスへの悪影響につながる。New Media & Society Journalに2019年に掲載された研究論文によると、Instagramで自傷行為のコンテンツを見た人は「自傷行為や自殺に関連する結果をともなうことが多い」という。米国在住の18歳~29歳を対象としたこの研究論文はこれについて、コンテンツを見たこと自体が原因か、あるいはもともと高いリスクを抱えているため、自傷行為のコンテンツを見る可能性が高いことが原因である可能性があるとしている。
「いずれにしても、調査結果はInstagramの自傷行為のコンテンツが懸念されるべきであることを示している」と論文には記されている。
Instagramは、「#selfharm」(#自傷行為)というハッシュタグで検索しても、関連する投稿をすぐ表示せずに、検索したユーザーを支援リソースに誘導している。自傷行為の画像は「#suicide」(#自殺)で検索しても警告付きで表示される。しかし、ユーザーは警告を無視して「投稿を見る」をクリックすれば画像を表示できる。警告は「あなたが探している単語が含まれる投稿は、危害を及ぼしたり死を導いたりする可能性のある行動を助長する傾向があります」というものだ。
自殺コンテンツの検索結果の中には、メンタルヘルスサポートリソースや自殺を思いとどまらせようとするコンテンツもある。Instagramのルールに違反し、自殺を奨励しているように見えるコンテンツもある。Instagramは2019年、ミームやイラストを含む、架空の自傷行為や自殺コンテンツを禁止すると発表した。
だが、#suisideで検索したところ、こうしたタイプのコンテンツが結果に表示された。suicidal_obsessionsというアカウントは、Instagramに削除される2週間前、自傷行為や自殺の方法を描いた170点以上のイラストを投稿していた。Instagramはこのアカウントのライブストリーミングを禁じていたが、違反が続いたため、アカウントを完全に削除したという。
米CNETが見つけたこれらのコンテンツは、オンラインに存在する自殺や自傷行為のコンテンツのごく一部にすぎない。Facebookは4月から6月にかけて、Facebook上の1680万件の自殺と自傷行為のコンテンツとInstagramの300万件のコンテンツに対処したという。Facebookの報告によると、問題のコンテンツのほとんどはプラットフォームがフラグを付けたもので、違反するコンテンツがユーザーの目に触れることは「まれ」だったという。
ソーシャルメディア企業と協力し、自殺防止リソースを提供している非営利団体Samaritansは、オンラインで自殺について安全に話し合う方法のヒントを紹介している。例えば、投稿の冒頭に警告を明示することや、自殺という行為が犯罪のように聞こえる「committed suicide」(自殺を犯した)という表現を使わないこと、自殺の方法に関する投稿は避けること、頻繁に自殺について投稿しないこと、などだ。
テクノロジー企業はまた、ユーザーが報告するより前に自傷行為コンテンツを特定するために人工知能(AI)を活用している。だが、すべてのプラットフォームが自傷行為や自殺のコンテンツを検索結果から排除しているわけではない。
Twitterは自傷行為あるいは自殺コンテンツの推奨を禁じているが、自傷行為の画像は「センシティブなメディア」という警告ラベル付きであれば許可している。ユーザーはこのラベルを確認した上で画像を表示できる(警告ラベルは投稿するユーザーが設定するよう求められているが、報告があればTwitterが追加する場合もある)。他のSNSと異なり、Twitterは自傷行為コンテンツの検索結果をブロックしていない。検索結果のトップに危機管理ホットラインの電話番号が表示される。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
日本のインターステラテクノロジズが挑む
「世界初」の衛星通信ビジネス
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力
NTT Comのオープンイノベーション
「ExTorch」5年間の軌跡