Googleは2016年の米大統領選挙以降、偽ニュースを阻止しようとさまざまな方法を試みているが、対立するグループが2つの異なる「事実」を支持する場合、同社のランキングアルゴリズムによって真実を判断するのは困難だという。
選挙期間中のロシアによる偽情報の拡散とは別に、米国で先ごろ起こった銃乱射事件を受けて、誤情報の拡散におけるGoogleの問題が表面化した。誤った情報を広めようとする者たちはこの事件を利用して、対立する政治思想に責任を負わせようとしている。
Googleの親会社Alphabetで会長を務めるEric Schmidt氏によると、こうしたオンラインでの小競り合いは、Googleのランキングアルゴリズムが真実と嘘を見分けることを難しくしているという。
Schmidt氏はHalifax International Security Forumで次のように語った。「たとえば、あるグループは事実Aを信じていて、別のグループは事実Bを信じているとしよう。互いに激しく反発しており、論点をめぐる記事の執筆や公開などをしているような状態だ。われわれが真実を知るのはとても難しい」
「したがって、グループA対グループBの争いになると、これがどういう状況かご想像いただけると思うが、AとBのどちらを上位に表示するべきか判断するのは難しい」(Schmidt氏)
Schmidt氏によると、より広範なコンセンサスがある場合には、Googleのアルゴリズムで偽情報や信用できない情報を処理するのは比較的簡単だったが、見解が真っ向から対立する場合に真実と誤情報を区別するのは一段と困難になるという。
Schmidt氏はまた、FacebookやTwitterと関連付けられることの多いエコーチェンバーの問題についても指摘した。これらのサービスのアルゴリズムは、友人やフォロワーを利用してニュースフィードを構築している。
「これは社会的価値観のようなものだが、時に自分とは異なる人の見解もデータベースに追加する必要があるとわれわれが一致して判断するまで、この問題は解消されないと思う」(Schmidt氏)
Schmidt氏は8月、Fast Companyとのインタビューの中で、国家ぐるみのネットワーク化されたプロパガンダの脅威について指摘した。同氏によると、Alphabetは政府がどこまでハッキングを利用して情報分野をコントロールしようとするかを過小評価していたが、その後、誤情報やその仕組みに大きな関心を持つようになったという。
Schmidt氏はまた、偽情報の拡散を排除するのにアルゴリズムが必須だとしても、人工知能(AI)が「悪いものを阻止」できる可能性については懐疑的だった。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス