Facebookがフェイクニュースや偽情報に対抗する戦略の概要を示した。だが、その取り組みがうまくいくことは難しそうに見える。なぜなら、新たな雇用にも、機械学習にも、人工知能(AI)にも、できることは限られているからだ。
結局、人間というものは「フィルターバブル」の心地よさが大好きなのだ。そして、Facebookはフィルターバブルのために設計されたサービスとも言える。
フィルターバブルという言葉になじみのない人のために説明すると、Eli Pariser氏による造語で、2011年のTED Talksで紹介された。ウェブ企業がサービスをパーソナライズするにつれ、人は自分の視点と相反する情報に接することがなくなっていくという意味だ。「フィルター」をそのまま昨今の「Facebook」に置き換えて考えてもいいだろう。
Facebookが公開したフェイクニュースや偽情報対策のマスタープランでは、ポリシーに違反するアカウントの削除と、フェイクニュースの削減、投稿に関するコンテキストの提供が説明されている。
筆者はFacebookが行き過ぎだと懸念している。その理由をこれから述べよう。
人間はフィルターバブルを好むものだ。常に自分を肯定してくれる友達グループが欲しくない人がいるだろうか? Facebookがあなたのニュースフィードをあなた好みにパーソナライズし、反対意見の人々を排除しているので、エコーチェンバーは大きくなるばかりだ。ソーシャルメディアの歴史について書くとしたら、Facebookがいかにしてフィルターバブルを大きくしたかについてで1章分を費やすだろう。アルゴリズムも、「Facebookエディター」機能も、機械学習も、人間が同好の士を見つけるのを阻むことはないだろう。
Facebookの構造も理由の1つだ。Facebookは友達同士をつなげるようにできている。たとえ変だと思われている人であってもだ。偽情報を根絶しようとすれば、Facebookの事業全体に大きな影響があるだろう。偽情報は日常生活の一部なのだ。ゴシップも、盛った話も、真っ赤な嘘も、偽情報だ。
人間は常に賢いわけではない。最近の、ロシアがFacebookに投入したとされる虚偽情報に関して最も驚いたのは、多くの人がそれらの広告にまんまと乗せられたことだ。金融リテラシーと同様に、ニュースリテラシーも(そして、その両方に情報を追加することも)必要だということが分かった。だが、ロシアの広告がどのように投票を動かしたのかを理解するには、少し努力が必要だ。もし地球征服を狙うエイリアンがやってきて、人類を理解するためにFacebookを読んだとしたら、約30分で殺人光線を発射されてしまうだろう。
もう1つの疑問は、人にニュースリテラシーを教え、情報源を確認するよう奨励し、賢くなるよう教育するのがFacebookの仕事なのかということだ。
Facebookはメディア企業でもありながら、プラットフォームであろうとしている。Facebookが事態を改善しようとしており、米国や欧州での規制に直面しながらも機能を保持しようとしていることには脱帽するが、数千人を雇用しても、AIや機械学習ツールを開発しても、現実を克服するのは難しそうだ。Facebookは今よりもさらに、メディア企業になる必要がある。プラットフォーム上を流れる情報をキュレーションし、場合によっては言論の自由を規制しなければならないだろう。だが、そうしたレベルで編集を加えることは、ユーザーのエンゲージメントと広告収益の減少につながる可能性がある。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」