OpenAI、フロンティアAIモデルに対する安全性計画を発表--取締役会に拒否権

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部2023年12月20日 08時41分

 OpenAIにとってこの1年は、「ChatGPT」で生成人工知能(AI)競争をリードした飛躍の年だった。その成功はすなわち、同社が今後のAI開発に対する適切な先例を作るかどうかに世界中の注目が集まっていることを意味する。OpenAIは、新しい安全性計画を発表することで、そのための一歩を踏み出した。

Sam Altman氏
提供:Dustin Chambers/Bloomberg via Getty Images

 OpenAIは米国時間12月18日、同社のフロンティアAIモデルの安全性を確保するために用意したさまざまな予防策を詳説する安全性計画「Preparedness Framework」の初期ベータ版を公開した。

 同社はこのフレームワークの最初の項目の中で、同社のフロンティアモデルに対して、モデルを限界まで追い込む一貫性のある評価を実施すると約束している。その評価結果は、それらのモデルのリスクを評価して、提案された緩和策の有効性を測定するために役立つと、OpenAIは主張している。

 評価結果はその後、OpenAIのフロンティアモデルに対するリスク「スコアカード」の形式で示され、リスク閾値を反映して継続的に更新される。リスク閾値には、以下の図に示すように、「Cybersecurity」(サイバーセキュリティ)、「Persuasion」(説得力)、「Model autonomy」(モデルの自律性)、「CBRN」(化学、生物、放射性物質、核の脅威)がある。

スコアカード
提供:OpenAI

 リスク閾値は、「Low」「Medium」「High」「Critical」の4段階のリスク安全性レベルに分類される。そのスコアによって、そのモデルに対して同社がどのように取り組みを進めるべきかが決定される。

 緩和策適用後のスコアが「Medium」またはそれ以下のモデルは展開可能で、「High」以下でなければそれ以上の開発はできないと、同社の投稿には記されている。

 OpenAIは、意思決定に関わる社内チームも再編成している。

 この業務に特化したPreparednessチームが、評価を実施して報告書をまとめるなど、フロンティアモデルの能力を評価するための技術的作業を推進する。続いて、部門横断的なSafety Advisory Group(安全諮問グループ)が、すべての報告書を審査して、経営陣と取締役会に提出する。

 最後に、経営陣が意思決定者としての役割を担うが、取締役会は決定を覆す権利を保有する。

 取締役会の拒否権の部分は、特に注目に値する。同社では11月半ばに、最高経営責任者(CEO)のSam Altman氏が取締役会によって突然更迭された後、すぐに新しい取締役会の下でCEOとして復帰するという騒動が起きたばかりだからだ。

 同社の発表によると、同フレームワークにはその他に、さらなる安全性と対外的責任に関する規約を策定する、社外組織と社内チームが協力して実世界の誤用を追跡する、モデルの規模拡大に伴うリスクの進化を評価するための新しい研究を率先して行うといった項目が含まれている。

OpenAIの公式発表

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]