ビジネスリーダーのほぼ10人に9人が、人工知能(AI)の倫理と企業責任に関する明確なガイドラインを設けることは重要と考えているものの、実際にそのようなガイドラインを設置している企業はごく一握りであることが、最新調査で明らかになった。
この調査結果から、AI導入の管理にあたってとるべきアプローチが明確に定まっていない現状がうかがわれ、IT専門職はデータ主導のイニシアチブを安全かつ倫理的に進めるために、率先してリーダーシップをとる必要がある。
この結果は、テクノロジー企業のConversicaが発表したビジネスリーダー500人に対する意識調査で明らかになったものだ。「調査からはっきりと浮かび上がるメッセージは、回答者の大多数が、企業内で、特にAI技術をすでに採用している企業内で、責任をもってAIを利用するためには、明確に定義されたガイドラインが何より重要だと認識しているということだ」と同社は述べている。
回答者の約4分の3(73%)が、AIのガイドラインは必要不可欠だと回答している。しかし、AI利用に関する明確な倫理ガイドラインを設置しているとの回答はわずか6%にすぎず、今後1年以内に設置する可能性があるとの回答は36%だった。
現在AIをすでに導入している企業であっても、そのような企業を率いるビジネスリーダーの5人に1人は、自社のAI関連ポリシーに関してほとんど、あるいは全く知識がないと回答している。また3分の1超(36%)が、ポリシーをめぐる懸念について「ある程度知っている」と答えるにとどまった。
このレポートによると、責任あるAIに対処するためのガイドラインやポリシーには、ガバナンス、偏りのないトレーニングデータ、偏りの検出、偏りの緩和、透明性、正確性、人間による監視を盛り込むべきだという。
調査に回答したビジネスリーダーのおよそ3分の2(65%)は、AIを活用したサービスをすでに導入しているか、今後1年以内に予定しているという。AIの主な使用例は、顧客サービスやマーケティングといったエンゲージメント関連機能の強化(39%)、分析からのインサイト生成(35%)などだ。
調査において、AIの生成データに関する懸念事項のトップに挙がったのは、現在のデータモデルの正確性、誤情報、透明性の欠如だ。ビジネスリーダーの4分の3以上(77%)が、AIが誤った情報を生成することに懸念を示した。
またビジネスリーダーは、AIプロバイダーがガイドライン策定の助けとなる情報を十分に提供しておらず、特にデータの安全性と透明性、および強固な倫理ポリシーの作成に関する情報が足りないとの考えを示した。
回答者の約3分の2(36%)は、「Chat GPT」などの生成AIツールの利用に関して社内に規則を設けていると答えた。しかし近い将来、AIツールの利用に関して各従業員に自由裁量を与える予定だとの回答も20%に上っている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
NTT Comのオープンイノベーション
「ExTorch」5年間の軌跡
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力
日本のインターステラテクノロジズが挑む
「世界初」の衛星通信ビジネス