グーグル、バグ報奨金プログラムを生成AI関連の脆弱性にも拡大

Maria Diaz (ZDNET.com) 翻訳校正: 編集部2023年10月30日 10時02分

 サイバーセキュリティにおいて、脅威は目まぐるしく変化する。急速に進化する生成人工知能(AI)技術がこれに加わって、セキュリティ懸念は分刻みに進化する。GoogleはAI技術に関わる最大規模の企業の1つで、この脅威に適応する必要性を認識している。

手を差し伸べるようなイメージ
提供:Piranka via Getty Images

 Googleは、同社の既存の脆弱性報奨金プログラム「Vulnerability Rewards Program(VRP)」を拡大し、生成AI特有の脆弱性も対象とする。偏見、モデルの操作、データの誤解釈、その他の敵対的攻撃など、生成AIがもたらす独特の課題を考慮するという。

 VRPは、Googleの製品やサービスに含まれるソフトウェアの脆弱性をテストして報告する社外セキュリティ研究者に報酬を支払うものだ。

 特に広く利用されているGoogleの生成AI製品としては、「Bard」や「Googleレンズ」のほか、「検索」「Gmail」「Googleドキュメント」などに搭載されているAI機能がある。

 生成AIがGoogleのさまざまなツールやプログラムにさらに深く統合されるにつれて、潜在的リスクは増大しており、Googleは既に、そうしたリスクの予測の取り組む、Trust & Safetyチームを社内に配備している。脆弱性報奨金プログラムを生成AI関連の脆弱性にも拡大することで、AIの安全性に関する研究を奨励し、責任あるAIを標準的に実践する体制の確立を目指す。

 Googleは、AI製品のバグ報告に対する報酬条件に関する詳しい情報も提供しており、何が対象で何が対象外かをユーザーが容易に判断できるようにしている。

 社外セキュリティ研究者は、金銭的見返りと引き換えに脆弱性を検出する役割を果たす。これにより、脆弱性報酬プログラムを提供する側のGoogleは、悪意あるユーザーに悪用される前にそれらの脅威を修正する機会を得る。

Googleの発表

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]