暴かれるブラックな実態--Facebook「コンテンツモデレーション」現場の凄まじさ

 ソーシャルメディアを運営する企業各社にとって、有害コンテンツの排除というのは、簡単に言えば「モグラ叩き」、大袈裟な例えを使えばベトナム戦争、あるいはアフガン紛争のような泥沼の戦いに当たると考えている。そんな先の見えない戦い、けれど(サービスが存在するかぎりは)誰かがやらなければならない「汚れ仕事」をしている現場の実態について、Facebookの例――その呆れた惨状を詳しく伝えた調査記事が先ごろThe Vergeで公開されていた(CNET.comでもこれに言及したかなり詳しい記事を掲載していた)。

The Vergeが特集記事に合わせて公開した動画。記事とほぼ同じ内容の事柄がコンパクトにまとめられている。英語が苦にならない方はぜひお終いまで観てほしい
(編集部注:人や動物への暴力的行為に関する説明が含まれます)

 IT関連大手の末端で働く「女工哀史」的な話というのは、いまに始まったことではなく、何年か前には英国にあるAmazonの配送センターの実態を伝えたThe Guardian記者の覆面潜入レポートなどが話題になっていた記憶もある。ただ、Facebookのこの話はAmazonの場合などとは比較にならないほど酷いものだ(「具体的にどれほど酷いか」は後述する)。

 Facebookができそうなことも限られていると思われる。「有害コンテンツを99%排除可能」といった人工知能(AI)システムがいつ頃実現できるのかは不透明で、また人間に内在する「邪悪さ」といったものを想定したシステムにサービス全体を設計し直すというのも、たとえできたとしてもかなり時間がかかりそうだ。それでも今すぐ現実的にできそうなことはいくつか思い浮かぶ。

 たとえば、下請け会社(利益最優先の人材派遣会社)を間にかませるのはやめて、モデレーション業務をすべて直轄にし、人員確保のプロセスや労働環境をきちんと整備する。あるいは業務が原因でPTSD(心的外傷後ストレス障害)になってしまった人たちへの対処は(使い捨てではなく)後々までしっかりFacebookが見る。もちろん、まずはその前に、この件に関して「出来合いの文言が並んだ」ような声明でお茶を濁していないで、現状を自ら調査して結果を公表することだ。下請け会社に「騙されて」この仕事に就いた人間がどれくらいの割合でいるのか、またPTSDと診断された労働者が何人くらいいるのかなどを明らかにし、合わせて対策を示すことが考えられる。

 国家のために前線で戦う兵士はそれなりの訓練を経て戦場に送り出される。戦闘で負傷した場合には国家が後々まで面倒を見る(昔から少なくとも建前上はそうなっている)。PTSDのリスク覚悟で臨まなければ務まらない仕事をしているFacebookのコンテンツモデレーターたちはこの兵隊に相当すると感じられるが、登録者数が20数億人レベルに達し、さらに自前の仮想通貨まで持とうとしているFacebookという国には、そんな国家としての最低限の務めを果たす道義的責任があるのではないか……そんな思いも浮かぶ。いずれにせよ今のままだとFacebookは「ブラック企業」というレッテルを貼られ続けることになる(理想のシステムが完成するまで)。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]