マイクロソフト、AI倫理評価チームを解散か

Oscar Gonzalez (CNET News) 翻訳校正: 湯本牧子 高森郁哉 (ガリレオ)2023年03月15日 11時58分

 Microsoftは2月、人工知能(AI)技術を組み込んだ検索エンジン「Bing」の強化版を発表し、大いに期待を集めている。同社はさらに米国時間3月14日、この新しいBingにOpenAIの「GPT-4」を搭載したことを明らかにした。GPT-4は、ChatGPTを支える高度な言語モデル「Generative Pre-trained Transformer」(GPT)の第4世代に当たる。

ChatGPTとMicrosoftのロゴ
提供:Getty Images

 MicrosoftはAIツールの開発を続けている一方で、AIを倫理的な方法で製品に組み込むために重要な役割を担っていたチームを解散したと報じられている。

 技術系ニュースレターPlatformerが14日に報じたところによると、1月に発表された1万人規模の人員削減の一環として、AI担当部門内の倫理・社会チームが完全に廃止されたという。「Office of Responsible AI」(ORA:責任あるAIオフィス)は引き続きAIに関する取り組みの規則や原則の策定にあたるが、今回廃止されたチームは、これらの原則を実際の製品に反映させる役割を担っていた。Platformerによると、このチームはOpenAIの技術をMicrosoftの製品群に組み込むことで生じる潜在的なリスクの評価も担当していたという。

 Microsoftにコメントを求めたが、すぐには回答を得られなかった。同社はPlatformerに対し、責任を持ってAI製品と機能を安全に開発することに尽力していると回答しているという。

 同社は1月、OpenAIとの提携を延長し、OpenAIに数十億ドルを追加出資する方針を明らかにした。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]