「責任あるAI」、企業のガイドライン設置進まず--Conversica調査

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 中村智恵子 高橋朋子 (ガリレオ)2023年08月29日 10時37分

 ビジネスリーダーのほぼ10人に9人が、人工知能(AI)の倫理と企業責任に関する明確なガイドラインを設けることは重要と考えているものの、実際にそのようなガイドラインを設置している企業はごく一握りであることが、最新調査で明らかになった。

脳とロボットの手のイラスト
提供:Moor Studio/Getty Images

 この調査結果から、AI導入の管理にあたってとるべきアプローチが明確に定まっていない現状がうかがわれ、IT専門職はデータ主導のイニシアチブを安全かつ倫理的に進めるために、率先してリーダーシップをとる必要がある。

 この結果は、テクノロジー企業のConversicaが発表したビジネスリーダー500人に対する意識調査で明らかになったものだ。「調査からはっきりと浮かび上がるメッセージは、回答者の大多数が、企業内で、特にAI技術をすでに採用している企業内で、責任をもってAIを利用するためには、明確に定義されたガイドラインが何より重要だと認識しているということだ」と同社は述べている。

 回答者の約4分の3(73%)が、AIのガイドラインは必要不可欠だと回答している。しかし、AI利用に関する明確な倫理ガイドラインを設置しているとの回答はわずか6%にすぎず、今後1年以内に設置する可能性があるとの回答は36%だった。

 現在AIをすでに導入している企業であっても、そのような企業を率いるビジネスリーダーの5人に1人は、自社のAI関連ポリシーに関してほとんど、あるいは全く知識がないと回答している。また3分の1超(36%)が、ポリシーをめぐる懸念について「ある程度知っている」と答えるにとどまった。

 このレポートによると、責任あるAIに対処するためのガイドラインやポリシーには、ガバナンス、偏りのないトレーニングデータ、偏りの検出、偏りの緩和、透明性、正確性、人間による監視を盛り込むべきだという。

 調査に回答したビジネスリーダーのおよそ3分の2(65%)は、AIを活用したサービスをすでに導入しているか、今後1年以内に予定しているという。AIの主な使用例は、顧客サービスやマーケティングといったエンゲージメント関連機能の強化(39%)、分析からのインサイト生成(35%)などだ。

 調査において、AIの生成データに関する懸念事項のトップに挙がったのは、現在のデータモデルの正確性、誤情報、透明性の欠如だ。ビジネスリーダーの4分の3以上(77%)が、AIが誤った情報を生成することに懸念を示した。

 またビジネスリーダーは、AIプロバイダーがガイドライン策定の助けとなる情報を十分に提供しておらず、特にデータの安全性と透明性、および強固な倫理ポリシーの作成に関する情報が足りないとの考えを示した。

 回答者の約3分の2(36%)は、「Chat GPT」などの生成AIツールの利用に関して社内に規則を設けていると答えた。しかし近い将来、AIツールの利用に関して各従業員に自由裁量を与える予定だとの回答も20%に上っている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]