先ごろ公開された調査研究報告によると、人工知能(AI)モデルはわずか半日で偽の国連演説文の書き方を覚えてしまうという。
このオープンソースの言語モデルは、Wikipediaのテキストと国連総会で行われた7000件を超える演説の台本を使って訓練されたもので、政治指導者らと同じ論調の演説を簡単に模倣できたと、国連研究員のJoseph Bullock氏とMiguel Luengo-Oroz氏は述べている。
同研究員らによると、このモデルにいくつかの単語をインプットするだけで、理路整然とした「質の高い」テキストを生成できたという。たとえば、モデルに「The Secretary-General strongly condemns the deadly terrorist attacks that took place in Mogadishu」(国連事務総長は、モガディシュで死者を出したテロリスト攻撃を強く非難する)という文章を与えたところ、国連の決定を支持する演説文を生成した(モガディシュはソマリアの首都)。AIのテキストは人間が作成したテキストとほとんど見分けがつかないほどだったと、研究員らは述べている。
一方、単語をいくつか変更するだけで、外交的演説が悪意に満ちた罵倒に変わってしまうこともある。
研究員らは、言語モデルが悪意のある目的に利用できることを強調している。たとえば、「移民のせいだ」などの扇動的なフレーズをインプットしたところ、モデルは、HIV/AIDSのまん延は移民のせいだと主張する差別的な演説文を生成した。
政治的ディープフェイクの時代にあって、今回の研究はフェイクニュースに関する懸念を増幅させるものだ。データにアクセスしやすくなったことで、さらに多くの人がAIを利用してフェイクテキストを生成しやすくなっていると、研究員らは述べている。なお今回のモデルを訓練するには、13時間と7.80ドル(約850円)しかかからなかったという。
研究員らは、調査報告の中で次のように述べている。「自動生成されるヘイトスピーチ(大規模に拡散されるおそれがあり、人間の演説と区別がつかないものも多い)の監視や対処はますます困難になっており、技術レベルと規制レベルの両面で新たなタイプの対策と戦略が必要になるだろう」
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス