生成AIの導入にあたり、CIOが懸念する3つの主なリスク

Mark Samuels (Special to ZDNET.com) 翻訳校正: 中村智恵子 高橋朋子 湯本牧子 (ガリレオ)2023年11月28日 12時07分

 あらゆる場所にいるあらゆる人が、生成人工知能(AI)に手を出しているように思える昨今だ。AIの活用が急がれる中、アナリスト企業のGartnerは、2026年までに企業の80%以上が、生成AIのアプリケーションプログラミングインターフェース(API)、モデル、およびソフトウェアを本稼働環境で利用すると予想している。

生成AIのイメージ
提供:da-kuk/Getty Images

 しかし、生成AIがこれほど盛り上がっていても、多くの企業は少なくとも公式には、この技術を取り入れていないことも忘れてはならない。

 テクノロジーメディア企業O'Reillyの調査によると、ITプロフェッショナルの77%はすでにプログラミング業務にAIを取り入れており、34%が試験導入している。また、およそ3分の2に当たる70%がデータ分析にAIを取り入れ、18%が本稼働環境で使用しているという。

 この調査レポートを執筆したMike Loukides氏は、生成AIの成長を「爆発的」と評する一方で、企業がAIの採用を急ぐことで生じるリスクや危険性を無視すれば、AIの「冬の時代」が到来する恐れがあると警告する。

 同様の見解を示すのが、GartnerのディスティングイッシュトバイスプレジデントアナリストであるAvivah Litan氏だ。最高情報責任者(CIO)をはじめとする企業幹部らは、それについて何らかの手を打つべきだと指摘する。

 Litan氏によると、Gartnerが先ごろ開催したウェビナーで、企業幹部700人超を対象に生成AIのリスクに関するアンケートを実施したところ、CIOが最も懸念しているのはデータプライバシーで、次にハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)、そしてセキュリティが挙がったという。

 これらの問題について、順番に考えてみよう。

1. プライバシーとデータ保護のリスク

 企業向け生成AIを導入する場合、CIOやその他の上級管理職は、おそらく自社のデータをベンダーがホスティングする環境に送信することになるだろう。

 このやり方は目新しいものではないとLitan氏は認める。企業は10年以上前から、クラウドやSaaSのプロバイダーにデータを送信してきたからだ。

 しかし、同氏によると、AIにはまた別種のリスクが伴うとCIOらは考えているという。これは特にベンダーが情報をどのように保存して利用するかについての懸念であり、例えば独自の大規模言語モデル(LLM)に学習させるといったことが挙げられる。

 Litan氏によると、GartnerはAIを利用したサービスを提供するITベンダーの多くについて、詳細な分析を実施しているという。

 「データ保護に関する結論として、サードパーティーの基盤モデルを使用する場合は信頼がすべてだが、信頼に足るかどうかを検証する術はない」として、Litan氏は次のように述べている。「そのため、ベンダーが適切なセキュリティ対策を講じており、自社データが流出することはないものと信じるしかない。しかし、クラウドシステムで間違いが起きることは誰もが知っている。もし極秘データが漏えいしても、ベンダーが責任を負うことはない。責任を問われるのは企業の側だ」

2. インプットとアウトプットのリスク

 企業は外部プロセス全体にわたってデータ保護リスクを評価するだけでなく、従業員が生成AIのアプリケーションやモデルでデータをどのように使っているかを認識する必要がある。

 Litan氏によると、この種のリスクには、容認できないデータの使用も含まれるという。こうした行為によって意思決定プロセスが損なわれる恐れがあり、例えば入力した機密データがずさんに扱われたり、アウトプットとして不正確な幻覚が生成されたり、他社の知的財産が使われたりする可能性がある。

 これに倫理的な問題や、モデルに偏りがあるかもしれないとの懸念が加わり、ビジネスリーダーはインプットとアウトプット双方からのリスクに直面する。

 生成AIの導入を管理する幹部は、会社全体として従業員が何事も当然のこととは思わないようにする必要があるとLitan氏は言う。

 「データや生成AIは、必ず自社にとって受け入れられる方法で利用しなければならない。自社のすべての資産にアクセスできる鍵を渡してはならず、また生成されるものは誤りや幻覚がないか精査されなければならない」(同氏)

3. 新しいサイバーセキュリティのリスク

 システムの脆弱性や従業員のミスによってハッカーが企業データにアクセスするといった、さまざまサイバーセキュリティのリスクを企業は日々抱えている。

 しかしLitan氏によると、AIは異なる脅威ベクトルだという。

 「AIは新しいリスクをもたらす。プロンプトインジェクション攻撃やデータベース攻撃があり、ハッカーはモデルのステータスとパラメーターにアクセスできる」(Litan氏)

 データ損失および金銭的損失などの潜在的なリスクがある一方、攻撃者はモデルを操作して良質なデータを不良データと置き換えることも可能だ。

 Litan氏によると、この新しい脅威ベクトルの登場は、企業がこれまで通りの実証されたやり方では対処できないことを意味するという。

 「攻撃者はモデルに毒を盛ることができる。モデルの周辺にセキュリティを施す必要があり、それはこれまでとは異なるセキュリティだ。エンドポイント保護はデータモデル保護には役立たないだろう」(Litan氏)

企業がなすべきこと

 生成AIに起因するこれらの複合的なリスクは、CIOやその他の経営幹部にとって手に負えない困難なものに思えるかもしれない。

 しかし、Litan氏は、生成AIに関連するリスクと機会が出現するのと同じくらいの速さで新しいソリューションが進化しているという。有効な解決策は間もなく登場する。したがって、技術市場が問題を解決するまでの間に企業の幹部は準備を整えるべきだと同氏は言う。

 「CIOに贈る最終的なアドバイスとしては『準備を整え、許容できる使用ポリシーを定義すること。確実にデータを分類し、アクセス管理を万全にすること』」(Litan氏)

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]