「ChatGPT」開発元のOpenAI、新興企業Anthropic、そしてIT大手のGoogleとMicrosoftが新たにアライアンスを結んだ。その目的はこれらの企業が「フロンティアAI」と呼ぶモデルにおいて、安全基準や責任ある開発体制の確立に向けたフレームワークを構築することにある。
4社は米国時間7月26日、「Frontier Model Forum」の結成を発表し、このアライアンスで重点的に取り組む分野を明らかにした。このわずか5日前、4社の幹部はMetaやAmazonなどの幹部とともに、Joe Biden米大統領と会談している。各社の幹部はこの会談で、野放し状態の人工知能(AI)がもたらしかねないリスクを低減し、国民の安全と信頼を優先したAIの安全策を順守することを約束していた。
Frontier Model Forumの主目的は4つ。AIの安全性に関する研究の推進、ベストプラクティスの見極め、政策立案者、識者、市民社会および企業との協力、社会の重要な課題への対応に役立つアプリケーションの開発支援だ。
Frontier Model Forumは、フロンティアモデルに関する条件を満たす他の組織についても、メンバーとして迎え入れる用意があるという。フロンティアモデルの定義は「既存の最先端のモデルが現在備えている機能を上回る大規模な機械学習モデル」としている。さらに、今後数カ月以内に諮問委員会を立ち上げることも計画している。
AIが安全やセキュリティにもたらすリスクへの懸念から、国際的な監視体制の確立や消費者と企業を守る「ガードレール」の構築を求める機運が高まっている。その中でIT企業は、ディープフェイク、サイバーセキュリティへの脅威、差別、データ収集にまつわる問題への対処を求められている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」