ハーバード大学と、マサチューセッツ工科大学(MIT)とIBMの人工知能(AI)研究機関であるMIT-IBM Watson AI Labの研究者らは、偽情報の拡散防止に役立つツールを開発した。研究チームが6月に発表した論文によると、「GLTR(Giant Language model Test Room)」と呼ばれるこのツールはAIを利用して、AIが作成した統計学的なテキストパターンを検出する。
GLTRは、単語が再度使用される可能性に基づいてテキスト内の単語を色別に表示する。AIが作成した可能性が高い単語は緑色、より可能性が低いものは赤色と黄色、最も可能性が低いものは紫色で表示される。
こういったツールは、ボットによって作成された大量のコンテンツを撲滅しなければならないTwitterやFacebookなどのソーシャルメディアサイトにとって有益になる可能性がある。
研究の被験者がこのツールを事前の訓練なく使用したところ、人間による検出率が54%から72%に増加したという。
「われわれは分析結果から得た洞察を適用してGLTRを開発した。このツールは人間の読み手を支援し、偽のテキストの検出能力を高めるためのものだ」「GTLRの目的は、生成されたテキストについて学んでもらい、意識を高めることだ」と論文の結論で述べられている。
研究者らにコメントを求めたが、すぐには回答を得られなかった。だがGLTRは無料で提供されている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」