あらゆる場所にいるあらゆる人が、生成人工知能(AI)に手を出しているように思える昨今だ。AIの活用が急がれる中、アナリスト企業のGartnerは、2026年までに企業の80%以上が、生成AIのアプリケーションプログラミングインターフェース(API)、モデル、およびソフトウェアを本稼働環境で利用すると予想している。
しかし、生成AIがこれほど盛り上がっていても、多くの企業は少なくとも公式には、この技術を取り入れていないことも忘れてはならない。
テクノロジーメディア企業O'Reillyの調査によると、ITプロフェッショナルの77%はすでにプログラミング業務にAIを取り入れており、34%が試験導入している。また、およそ3分の2に当たる70%がデータ分析にAIを取り入れ、18%が本稼働環境で使用しているという。
この調査レポートを執筆したMike Loukides氏は、生成AIの成長を「爆発的」と評する一方で、企業がAIの採用を急ぐことで生じるリスクや危険性を無視すれば、AIの「冬の時代」が到来する恐れがあると警告する。
同様の見解を示すのが、GartnerのディスティングイッシュトバイスプレジデントアナリストであるAvivah Litan氏だ。最高情報責任者(CIO)をはじめとする企業幹部らは、それについて何らかの手を打つべきだと指摘する。
Litan氏によると、Gartnerが先ごろ開催したウェビナーで、企業幹部700人超を対象に生成AIのリスクに関するアンケートを実施したところ、CIOが最も懸念しているのはデータプライバシーで、次にハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)、そしてセキュリティが挙がったという。
これらの問題について、順番に考えてみよう。
企業向け生成AIを導入する場合、CIOやその他の上級管理職は、おそらく自社のデータをベンダーがホスティングする環境に送信することになるだろう。
このやり方は目新しいものではないとLitan氏は認める。企業は10年以上前から、クラウドやSaaSのプロバイダーにデータを送信してきたからだ。
しかし、同氏によると、AIにはまた別種のリスクが伴うとCIOらは考えているという。これは特にベンダーが情報をどのように保存して利用するかについての懸念であり、例えば独自の大規模言語モデル(LLM)に学習させるといったことが挙げられる。
Litan氏によると、GartnerはAIを利用したサービスを提供するITベンダーの多くについて、詳細な分析を実施しているという。
「データ保護に関する結論として、サードパーティーの基盤モデルを使用する場合は信頼がすべてだが、信頼に足るかどうかを検証する術はない」として、Litan氏は次のように述べている。「そのため、ベンダーが適切なセキュリティ対策を講じており、自社データが流出することはないものと信じるしかない。しかし、クラウドシステムで間違いが起きることは誰もが知っている。もし極秘データが漏えいしても、ベンダーが責任を負うことはない。責任を問われるのは企業の側だ」
企業は外部プロセス全体にわたってデータ保護リスクを評価するだけでなく、従業員が生成AIのアプリケーションやモデルでデータをどのように使っているかを認識する必要がある。
Litan氏によると、この種のリスクには、容認できないデータの使用も含まれるという。こうした行為によって意思決定プロセスが損なわれる恐れがあり、例えば入力した機密データがずさんに扱われたり、アウトプットとして不正確な幻覚が生成されたり、他社の知的財産が使われたりする可能性がある。
これに倫理的な問題や、モデルに偏りがあるかもしれないとの懸念が加わり、ビジネスリーダーはインプットとアウトプット双方からのリスクに直面する。
生成AIの導入を管理する幹部は、会社全体として従業員が何事も当然のこととは思わないようにする必要があるとLitan氏は言う。
「データや生成AIは、必ず自社にとって受け入れられる方法で利用しなければならない。自社のすべての資産にアクセスできる鍵を渡してはならず、また生成されるものは誤りや幻覚がないか精査されなければならない」(同氏)
システムの脆弱性や従業員のミスによってハッカーが企業データにアクセスするといった、さまざまサイバーセキュリティのリスクを企業は日々抱えている。
しかしLitan氏によると、AIは異なる脅威ベクトルだという。
「AIは新しいリスクをもたらす。プロンプトインジェクション攻撃やデータベース攻撃があり、ハッカーはモデルのステータスとパラメーターにアクセスできる」(Litan氏)
データ損失および金銭的損失などの潜在的なリスクがある一方、攻撃者はモデルを操作して良質なデータを不良データと置き換えることも可能だ。
Litan氏によると、この新しい脅威ベクトルの登場は、企業がこれまで通りの実証されたやり方では対処できないことを意味するという。
「攻撃者はモデルに毒を盛ることができる。モデルの周辺にセキュリティを施す必要があり、それはこれまでとは異なるセキュリティだ。エンドポイント保護はデータモデル保護には役立たないだろう」(Litan氏)
生成AIに起因するこれらの複合的なリスクは、CIOやその他の経営幹部にとって手に負えない困難なものに思えるかもしれない。
しかし、Litan氏は、生成AIに関連するリスクと機会が出現するのと同じくらいの速さで新しいソリューションが進化しているという。有効な解決策は間もなく登場する。したがって、技術市場が問題を解決するまでの間に企業の幹部は準備を整えるべきだと同氏は言う。
「CIOに贈る最終的なアドバイスとしては『準備を整え、許容できる使用ポリシーを定義すること。確実にデータを分類し、アクセス管理を万全にすること』」(Litan氏)
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」