Facebookのフェイクニュース対策を悲観する理由--根深いフィルターバブルの壁

Larry Dignan (ZDNET.com) 翻訳校正: 編集部2018年05月29日 07時30分

 Facebookがフェイクニュースや偽情報に対抗する戦略の概要を示した。だが、その取り組みがうまくいくことは難しそうに見える。なぜなら、新たな雇用にも、機械学習にも、人工知能(AI)にも、できることは限られているからだ。

 結局、人間というものは「フィルターバブル」の心地よさが大好きなのだ。そして、Facebookはフィルターバブルのために設計されたサービスとも言える。

 フィルターバブルという言葉になじみのない人のために説明すると、Eli Pariser氏による造語で、2011年のTED Talksで紹介された。ウェブ企業がサービスをパーソナライズするにつれ、人は自分の視点と相反する情報に接することがなくなっていくという意味だ。「フィルター」をそのまま昨今の「Facebook」に置き換えて考えてもいいだろう。

 Facebookが公開したフェイクニュースや偽情報対策のマスタープランでは、ポリシーに違反するアカウントの削除と、フェイクニュースの削減、投稿に関するコンテキストの提供が説明されている。

 筆者はFacebookが行き過ぎだと懸念している。その理由をこれから述べよう。

 人間はフィルターバブルを好むものだ。常に自分を肯定してくれる友達グループが欲しくない人がいるだろうか? Facebookがあなたのニュースフィードをあなた好みにパーソナライズし、反対意見の人々を排除しているので、エコーチェンバーは大きくなるばかりだ。ソーシャルメディアの歴史について書くとしたら、Facebookがいかにしてフィルターバブルを大きくしたかについてで1章分を費やすだろう。アルゴリズムも、「Facebookエディター」機能も、機械学習も、人間が同好の士を見つけるのを阻むことはないだろう。

 Facebookの構造も理由の1つだ。Facebookは友達同士をつなげるようにできている。たとえ変だと思われている人であってもだ。偽情報を根絶しようとすれば、Facebookの事業全体に大きな影響があるだろう。偽情報は日常生活の一部なのだ。ゴシップも、盛った話も、真っ赤な嘘も、偽情報だ。

 人間は常に賢いわけではない。最近の、ロシアがFacebookに投入したとされる虚偽情報に関して最も驚いたのは、多くの人がそれらの広告にまんまと乗せられたことだ。金融リテラシーと同様に、ニュースリテラシーも(そして、その両方に情報を追加することも)必要だということが分かった。だが、ロシアの広告がどのように投票を動かしたのかを理解するには、少し努力が必要だ。もし地球征服を狙うエイリアンがやってきて、人類を理解するためにFacebookを読んだとしたら、約30分で殺人光線を発射されてしまうだろう。

 もう1つの疑問は、人にニュースリテラシーを教え、情報源を確認するよう奨励し、賢くなるよう教育するのがFacebookの仕事なのかということだ。

 Facebookはメディア企業でもありながら、プラットフォームであろうとしている。Facebookが事態を改善しようとしており、米国や欧州での規制に直面しながらも機能を保持しようとしていることには脱帽するが、数千人を雇用しても、AIや機械学習ツールを開発しても、現実を克服するのは難しそうだ。Facebookは今よりもさらに、メディア企業になる必要がある。プラットフォーム上を流れる情報をキュレーションし、場合によっては言論の自由を規制しなければならないだろう。だが、そうしたレベルで編集を加えることは、ユーザーのエンゲージメントと広告収益の減少につながる可能性がある。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]