英国における一連のテロ攻撃後、Theresa May英首相およびEmmanuel Macron仏大統領がソーシャルメディアのテロ対策強化を要請したことを受け、Facebookは米国時間6月15日、人工知能(AI)の利用など、Facebook上の過激主義的コンテンツを制限する取り組みを強化する方法について概略を説明した。
Facebookのグローバルポリシー管理担当ディレクターであるMonika Bickert氏と、対テロポリシー担当マネージャーのBrian Fishman氏は、次のように述べている。「ソーシャルメディアはテロリストが発言権を持つ場であるべきではないという意見に賛同する。そのことをどれほど真剣に受け止めているか、はっきりさせたい。Facebook上でコミュニティを安全に保つことは、われわれの使命にとって重要だ」
両氏は、Facebookが「テロリスト、およびテロを支援する投稿」を見つけたら排除するとした上で、「簡単な技術的解決策があると言いたくはない」とも述べている。
特に、イスラム過激派組織「ISIS」やアルカイダ、およびそれらの傘下組織に関するテロリストのコンテンツを排除するため、FacebookはAIの「最先端の技術」を利用している、と両氏は述べている。そうした技術には、画像マッチングも含まれており、これまでに削除されたテロリストのプロパガンダを元に、同じ画像や動画を特定して、再びFacebookにアップロードされるのを防いでいる。
Facebookは、言語理解の実験も進めており、同サイトから削除されたテロリストに賛同するテキストを分析している。「そうした分析は、同様な投稿を検知する方法について、学習の初期段階にあるアルゴリズムに送られる」とブログには書かれている。
Facebookは、複数のアルゴリズムを利用して、無効にされたテロリストのアカウントと関連のありそうなアカウントや類似性があると思われるアカウントを発見することにより、テロリストの「集団」も特定しようとしている。違反常習者の新しい偽アカウントを検知する方法も進化させており、さらに、「Facebook」「WhatsApp」「Instagram」などの系列アプリでデータを共有している。
Facebookは、専門家の雇用、政府や業界パートナーとの連携についても説明している。2018年には、コミュニティオペレーションチームを世界全体で3000人追加し、コンテンツを監視しようとしている。テロ対策専門の学識経験者や元検察官、法執行機関の元職員、アナリスト、エンジニアなど、テロ対策の専門家もすでに150人以上採用している。
Facebookは、MicrosoftやTwitter、YouTubeといったほかのインターネット企業と、過激主義対策で協力している。世界各国の政府機関から状況説明を受けたり、「Global Coalition Against Daesh」などの官民共同イニシアチブに参加したりもしている。また、「Online Civil Courage Initiative」のような「カウンタースピーチ」プログラムも支援している。
Facebookは、同社は暗号化されたメッセージを読むことはできないと述べている。だが、「適用法やわれわれのポリシーに反しない、法執行機関の有効な要請に対応して、提供できる情報は提供している」という。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」