OpenAI、AIを規制する3つの方法を提案

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部2023年05月25日 08時55分

 人工知能(AI)開発の人気と規模が日に日に増し続ける中で、AIに対する規制が話題になっている。政府関係者、IT業界幹部、関心ある市民のすべてが、行動を求めている状態にある。

ネットワークのイメージ写真
提供:Chadchai Ra-ngubpai/Getty Images

 爆発的な人気を誇る「ChatGPT」の開発元として、AI分野の主要企業となっているOpenAIが、この議論に加わった。

 「Governance of superintelligence」(スーパーインテリジェンスのガバナンス)というタイトルのブログの中で、OpenAIの最高経営責任者(CEO)であるSam Altman氏、プレジデントで共同創設者のGreg Brockman氏、共同創設者でチーフサイエンティストのIlya Sutskever氏は、手遅れになる前に、AI規制を今すぐ確立することの重要性を議論している。

 「実存リスクの可能性を考えると、問題が起きたら対応するというわけにはいかない」と、OpenAIの幹部らはそのブログの中で述べた。「原子力エネルギーは、この性質を持つ技術の過去の例として一般的に用いられる。合成生物学もその1つだ」(OpenAI幹部ら)

 このブログでは、AI規制の適切な出発点となる可能性がある、3つの行動指針の概要が示されている。

 まず、AI技術の安全性と社会への円滑な融合に主眼を置く、何らかの形の調整機関の設置を求めている。

 その例として、現在の各種取り組みを取り込める可能性のあるプロジェクトに主要な各国政府が協力することや、AI開発に主眼を置く組織を設置してAI能力の年間成長率を制限することなどが挙げられている。

 OpenAIが共有した2つ目のアイデアは、AIまたは「スーパーインテリジェンス」の取り組みに対する、国際原子力機関(IAEA)のような国際的組織の必要性だ。

 そのような組織に、システムを検査し、監査を求め、安全規格に対する準拠性を試験する権限を持たせることで、AIモデルの安全で責任ある開発を確保する。

 この最初のステップとして、まずは企業が規制の制定を開始して、国際機関や国家がそれらの基準の施行を開始できるようにすることが提案されている。

 そして3つ目として、スーパーインテリジェンスを安全にするための技術的能力が必要としつつ、それは、多くの人々が取り組んでいるオープンな研究課題だと述べている。

 OpenAIは、企業やオープンソースプロジェクトが「ライセンスや監査のような面倒なメカニズム」を設けることなく、定められた能力のしきい値を超えない範囲でAIモデルを開発できるようにすることが重要だとも述べている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]