非営利の人工知能(AI)研究グループOpenAIは、文章を生成する言語モデル「GPT-2」の最終版をリリースしている。OpenAIは2015年にElon Musk氏らが設立したグループだが、Musk氏はすでに同組織を離れている。
OpenAIによると、新しくリリースされたフルモデルが生成する文章は、信頼性が旧版よりわずかに向上した。
OpenAIは段階的な公開プロセスの一環として、2月に言語モデルの一部(パラメーターは1億2400万)をリリースした。15億のパラメーターを持つフルモデルの代わりに縮小版を公開したのは、これが危険すぎる上、テロリストや国家の支援を受けたハッカーなど、悪意のある攻撃者に悪用される恐れがあるとサイエンティストらが考えたためだ。
OpenAIは、GPT-2の悪用の可能性として、誤解を与えるニュース記事、オンラインでのなりすまし、ソーシャルメディア向けの不適切なコンテンツやフェイクコンテンツ、スパムやフィッシングコンテンツの自動生成などを挙げている。
この言語モデルはこの分野を主導するテキスト生成AIだ。Googleの研究者も「Bidirectional Encoder Representations from Transformers」(BERT)を開発している。Googleはユーザーの検索内容を予測するためにBERTを使用している。
OpenAIによると、人は15億のパラメーターを持つGPT-2が生成した文章を「説得力がある」と感じたものの、8月に公開した7億7400万のパラメーターを持つモデルと比較した場合、わずかしか向上しなかった。生成された文章を人がどの程度信頼するのか、コーネル大学が調査を実施した。
OpenAIは、GPT-2を悪用のために「微調整することが可能」だと述べている。ミドルベリー大学のテロ・過激主義・テロ対策センター(CTEC)によると、白人至上主義、マルクス主義、イスラムのジハード主義、無政府主義などを擁護するよう、GPT-2に手を加え、プロパガンダを生成できる恐れがあるという。
OpenAIは、15億のパラメーターを持つGPT-2リリースと共に公開した文書で、「GPT-2を悪用する動機とリソースを持っている可能性が高い」のは、APT(高度で継続的な脅威)攻撃者だと指摘している。しかしOpenAIは、そうした脅威に対抗するだけのリソースがないことなどから、CTECとコーネル大学の協力を得た。
一方、OpenAIはより低レベルの脅威について、以前考えられていたほど差し迫った問題ではないとみている。現時点では、GPT-2が悪用された証拠は見つかってないという。
OpenAIは、15億個のパラメーターを持つGPT-2モデルで生成されたテキストの検出で、検出精度が約95%の検出モデルを開発している。高い数値だが、OpenAIはメタデータベースのアプローチのほか、人間による判断や一般の啓発などを通じて、検出システムをさらに強化する必要があると考えている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス