「ChatGPT」などの生成AIを欺くことに研究者らが成功、安全性に警鐘

Maria Diaz (ZDNET.com) 翻訳校正: 編集部2023年07月28日 09時42分

 カーネギーメロン大学と非営利団体Center for AI Safetyの研究者らが協力し、OpenAIの「ChatGPT」、Googleの「Bard」、新興企業Anthropicの「Claude」など、AIチャットボットの脆弱性について調査した。その結果をまとめた報告書によると、これらは悪意あるプロンプトに対して脆弱であることが明らかになったという。

「CHAT AI」と表示された画面
提供:Supatman/Getty Images

 多くの人が、人工知能(AI)ツールを日常的に使うようになっているが、セキュリティーの脆弱性に対して、完全に無縁ではないことを肝に銘じる必要がありそうだ。

 研究者らは、自動敵対的攻撃に対する大規模言語モデル(LLM)の脆弱性を検証した報告書で、攻撃に対して耐性があると考えられているLLMであっても、コンテンツフィルターを迂回(うかい)し、有害な情報や偽情報、ヘイトスピーチを提供するように欺けることを証明した。

各AIツールによって生成された有害コンテンツの例
各AIツールによって生成された有害コンテンツの例
提供:Screenshots: Andy Zou, Zifan Wang, J. Zico Kolter, Matt Fredrikson | Image composition: Maria Diaz/ZDNET

 調査では、オープンソースのAIシステムを使い、OpenAI、Google、AnthropicのブラックボックスLLMを対象に実験を行った。これらの企業は、それぞれが基盤となるモデルを開発し、その上に各社のAIチャットボット、すなわちChatGPT、Bard、Claudeを構築している。

 2022年11月にChatGPTがリリースされて以来、一部のユーザーはこれを使って悪意のあるコンテンツを生成する方法を探している。このためOpenAIや、同社に続いてAIツールを公開したMicrosoft、Google、Anthropicなどの企業は、AIチャットボットが悪用され、偽情報が拡散されないように、それぞれ独自の「ガードレール」を開発した。

 研究者らは、こうした安全対策の強度を試すことにした。具体的には、各プロンプトの末尾に長い文字列を付加し、AIチャットボットが有害な入力を認識できないようにして、欺くことに成功した。チャットボットは偽装されたプロンプトを処理するものの、ガードレールとコンテンツフィルターは付加された余分な文字列により、ブロックもしくは修正すべきものと認識できず、通常なら生成しないような応答を生成することが示された。

 AIチャットボットが、入力されたプロンプトの本質を誤って解釈し、本来なら許可されない情報を出力したため、より強固な安全対策が必要であることが浮き彫りになった。またガードレールやコンテンツフィルターがどのように構築されているか、見直す必要もあるだろう。

 カーネギーメロン大学のZico Kolter教授は、「明確な解決策はない」と語った。「この種の攻撃は、短時間でいくらでも作り出すことができる」

 研究者らはこの報告書の公開前に、調査結果をAnthropic、Google、OpenAIと共有した。各社は、自社モデルを敵対的攻撃から守るために、一層の取り組みが必要であることを認め、チャットボットの安全性強化に注力していく意向を明らかにしたという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]