この半年で、人工知能(AI)がもたらす好ましい影響がこれまで以上に注目されるようになったが、AIのリスクもまた同様だ。
最悪の場合、AIは誤った情報を生み出し、有害または差別的なコンテンツを生成し、セキュリティやプライバシーのリスクをもたらす可能性がある。そのため、モデルを一般に公開する前に正確なテストを行うことが極めて重要であり、Microsoftは5年前からそれを実行している。
同社は2018年にAIレッドチームを立ち上げた。同チームは、「攻撃者のように考え」「AIシステムの不具合を探る」ことによって、AIモデルのリスクを調査することを専門とする学際的な専門家で構成されているという。
そしてMicrosoftはこのほど、責任あるAI導入の模範となるべく、レッドチームの活動と知見を公開した。同社によると、AIモデルをテストする上では、ベースモデルのレベルと、アプリケーションのレベルの双方の視点が欠かせないという。同社はその例として、「Bing Chat」のAIを「GPT-4」のレベルと、GPT-4を利用した実際の検索エクスペリエンスという双方の視点から監視していることを挙げている。
Microsoftは同社ブログに「いずれのレベルにもそれぞれ固有のメリットがある。例えば、モデルをレッドチーム演習の攻撃対象にすること(レッドチーミング)は、プロセスの初期段階でモデルの悪用方法を洗い出したり、モデルの適用範囲を見極めたり、モデルの制約を理解する上で役立つ」と記している。
同社は5年間の経験で培ってきた、AIのレッドチーミングに関する重要な5つの洞察を公開した。
1つ目の洞察は、AIのレッドチームミングという言葉の適用範囲だ。AIのレッドチーミングとは、単にセキュリティをテストすることだけでなく、公平性や、有害なコンテンツの生成といった要素に関するテストを含む技術の総称だ。
2つ目の洞察は、悪意を持ったペルソナと悪意のないペルソナのそれぞれが犯した失敗に着目する必要があるというものだ。レッドチーミングはたいていの場合、悪意を持ったアクターによるテクノロジーの利用方法に着目するが、平均的なユーザーが利用する際に有害コンテンツがどのように生成されるのかについてもテストする必要がある。
Microsoftは、「新しい『Bing』において、AIのレッドチーミングは悪意ある敵対者がセキュリティにフォーカスしたテクニックやエクスプロイトを用いてAIシステムを悪用する方法だけでなく、システムと一般ユーザーがやり取りする際に、そのシステムが問題のある有害なコンテンツをどのように生成するのかについても焦点を当てる」と記している。
3つ目の洞察は、AIシステムが常に進化し続けているため、さまざまなレベルでのAIシステムのレッドチーミングが必要になるというところにある。これにより4つ目の洞察が導き出される。それは、生成型AIシステムのレッドチーミングには複数にわたる試みが必要になるというものだ。
生成型AIシステムとのやり取りは、そのたびに異なった出力が得られる傾向にある。このためMicrosoftは、システムの問題を見過ごしてしまわないようにするために、レッドチーミングによる多角的な試みを実行しなければならないという知見を得ている。
最後に、MicrosoftはAIの問題を緩和するには、深層防御という考え方が必要になると記している。つまり、レッドチームが問題を洗い出した後、その問題に取り組むためのさまざまな技術的緩和策を導入することになる。
同社が採っているような対策は、新たなAIシステムに対する懸念を和らげるのに役立つと同時に、それらのシステムに関連するリスクを軽減するのにも役立つはずだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」