OpenAIのCEO解任劇が示すAIの主導権争い--透明性の大切さが浮き彫りに

Eileen Yu (Special to ZDNET.com) 翻訳校正: 矢倉美登里 吉武稔夫 湯本牧子 (ガリレオ)2023年11月27日 12時07分

 この記事を書き始めたとき、筆者は米中間の人工知能(AI)競争について考察するつもりだった。だが、つい先頃のドタバタ騒ぎのせいで、議論すべき範囲が変わってしまった。だが、底流をなすメッセージに変わりはない。特に、AIという新たなテクノロジーによって大きな影響を受ける時代における役割を模索している各国政府にとっては。

Sam Altman氏の写真を表示したスマホ
提供:NurPhoto/Getty Images

 OpenAIにとっては驚愕の1週間だったが、解任された共同創業者で最高経営責任者(CEO)のSam Altman氏が復帰することで合意に達したようだ。この決定が下されるまでの数日間は、AltmanのCEO解任とMicrosoft入り、暫定CEOの交代、従業員の反乱など、目を離せない展開だった。

 OpenAIは、Altman氏のCEO復帰を発表する声明で次のように述べている。「Altman氏がCEOとしてOpenAIに復帰し、Bret Taylor氏(会長)、Larry Summers氏、Adam D'Angelo氏が新たな取締役会に参加することで、基本的な合意に至った。詳細については協力して詰めていく。本件を決着まで辛抱強く見守ってくれた皆様に感謝している」

 報道を見る限り、Altman氏がこれまで手にしていなかった取締役会の席を獲得するかどうかはまだ不明だ。同氏は6月、BloombergのインタビューでAIの信頼性について、「ここで、それがどういう人物であろうと、1人の人間を信頼するべきではない。(中略)取締役会は私を解雇できる。それが重要なことだと思う」と話していた

 また、OpenAIの共同創設者でチーフサイエンティストのIlya Sutskever氏が取締役に復帰するかどうかについても、まだ明らかにされていない。同氏はHelen Toner氏とともに前取締役会のメンバーで、2人ともAltman氏を解任する決定に関与したと思われている。ただし、Sutskever氏は後にそうした行動に関与したことを後悔していると述べた

 騒動の間ずっと沈黙を守っていたToner氏は、Altman氏の復帰が明らかになった後、ようやく「X」への投稿でこう述べた。「さあ、これでみんな少し眠れるだろう」

 ジョージタウン大学の安全保障・先端技術研究センター(CSET)で戦略および基礎研究助成金担当ディレクターを務めている同氏は、共同執筆した研究論文を10月に発表したが、Altman氏はその内容についてOpenAIに批判的だと苦言を呈していた。論文では、AI開発の安全性を維持するための同社の取り組みが、競合するAnthropicに比べて見劣りすると指摘していた。The New York Timesの記事によると、Altman氏はこれに不満を抱き、Toner氏の取締役解任を求めて動いていたという。

 2015年に非営利団体として設立されたOpenAIは、汎用人工知能(AGI)で全人類に利益をもたらすという「使命を推進するために熟慮の上で組織化」された。そして2019年、非営利団体のガバナンスと監視体制を「維持」しつつ、使命追求のため資金を調達できるよう組織が再編された。

 Toner氏やSutskever氏を含む取締役会(AIの安全性よりも事業拡大に重点を置くAltman氏の姿勢を懸念しているとされる)は、Altman氏を解任する決定に至った理由についてほぼ沈黙を守ったため、ソーシャルメディア上ではさまざまな臆測が飛び交った。

 Altman氏と取締役会の間に緊張が生じたとする報道が増えると、ほどなくして、AIの安全性と利益をめぐって議論になった可能性が非常に高いことが明らかになった。ここに問題の核心がある。ただし、OpenAIの取締役会が本当は何を懸念していたのかについて十分な情報がないため、これらはまだ仮説や臆測にすぎない。

 AGIで「全人類に利益をもたらす」というOpenAIの使命からAltman氏が逸脱したと取締役会が判断するに至った理由として、同氏はどのような事実を省いたり偽ったりしたのだろうか。あるいは、実はOpenAIの内部では研究開発がAGIに近づいていて、取締役会は「全人類」にそれを迎える準備ができているか確信が持てないのだろうか。これは一般市民や国家も心配するべきことなのだろうか。

 この1週間で少なくともさらにはっきりしたことが1つあるとすれば、それは、AIとともにある世界の未来はかなりの部分がごく少数の市場関係者の手に委ねられているということだ。ビッグテック(大手テクノロジー企業)の集合体には、AIが社会全体にどのような影響をもたらすべきかを自ら決定するのに十分な資金とリソースがある。しかし、こうしたビッグテックのコミュニティは、世界の人口やデモグラフィックのほんの一部を代表しているに過ぎない。

 こうしたテクノロジー業界のエリートは数日の間に、Altman氏の解任やMicrosoftへの移籍、OpenAIの従業員ほぼ全員が市場の別の大手企業に移籍する可能性、Altman氏の最終的な復帰を巧みに誘導できた。しかも、Altman氏が解任されたそもそもの理由を説明したり、利益よりAIの安全性を優先することに関する懸念を実証(または反証)しようと明白に歩調をそろえたりすることなく、そうしたことすべてをやってのけたのだ。

AIの透明性を実践せよ

 大混乱の1週間のうちに、あるメッセージがよりいっそう明らかになった。生成AIやAGIなど、すべてのAIの開発および導入においては、透明性がきわめて重要であるというメッセージだ。そして、積極的に関わろうとする者が誰もいない場合、透明性は法規制によって推進されなければならない。AI分野における市場革新の抑制を求めるのではなく、こうした革新が発展、高度化する過程で透明性を求めることに焦点を合わせた法規制が必要だ。

 OpenAIの混乱は、政府や社会にとってAI開発をどのように進めるべきかについての大きな学習機会となるはずだ。われわれは、たとえAI開発が非営利企業の枠組みによって制約を受けていたとしても、それを管理することの複雑さを目の当たりにした。

 AIのリスクについて自由に語ることができるよう、中心的な人物が辞職せざるを得なかったということは、完全な透明性を確保することを約束したにもかかわらず、市場関係者がAIの開発についてそれを実現する見込みがないことを明確に示している。

 完全な透明性を確保するためには強力なガバナンスが必要であり、その確立が急務だ。私たちがすでに目撃しているように、市場(特にビッグテック)は信じられないスピードで動くことができる。そして、この短期間でAIに対する監視の目が厳しくなった今、この動きはさらに加速する可能性が高い。政策立案者らも一刻も早く行動を起こす必要があるだろう。

 誰かが今回のOpenAIの事例から学びを得ていることを願う。なぜなら、今起きている議論は、どの国がAIレースを支配するかというだけにとどまらず、必要な規制が講じられないまま、ビッグテックが主導権を握るかどうかということだからだ。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]