人工知能(AI)は、人と技術との関わり方を革新し続けているため、人の未来に信じられないほどの影響を及ぼすことは否定できない。野放しのままであれば、AIにはかなり深刻なリスクがあることも否定できない。
ここで登場するのが、OpenAIが立ち上げた新しい専門家チームだ。
「壊滅的な」リスクに対応する目的で結成されたOpenAIの専門家チーム「Preparedness」は、現在および将来のAIモデルが抱えるリスク要因を検証する。そうしたリスクはさまざまなカテゴリーに及び、それには聞き手に合わせた説得、全体的なサイバーセキュリティ、自律的な複製や適応、さらには化学攻撃や生物攻撃、放射性物質による攻撃、核攻撃のような絶滅レベルの脅威が含まれる。
AIが核戦争を始めるというのはいささか起こりそうにない出来事に思えるが、トップクラスのAI研究者やエンジニア、Google DeepMindの最高経営責任者(CEO)であるDemis Hassabis氏をはじめとするCEOらのグループが、「AIによる絶滅のリスクを緩和することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と不気味な警告を発したのが、5月の話だということを思い出してほしい。
AIがどのように核戦争を引き起こせると言うのだろうか。最近は、軍事攻撃を行う時期や場所、方法の決定に必ずコンピューターが使われており、将来的にはAIが関わることになるのは間違いない。しかし、AIは「ハルシネーション」(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)を起こしやすく、人と同じ世界観を持っているとは限らない。要するに、AIは間違ったタイミングで核攻撃すべきだと判断する可能性があるということだ。
OpenAIの声明には、次のように書かれている。「フロンティアAIモデルは、最先端の既存モデルが現時点で持っている機能を凌駕し、人類全体の利益に寄与する潜在的な力を持つようになると考えている。しかし、もたらすリスクもますます深刻化している」
OpenAIによると、AIを抑制するため、専門家チームは以下の3つの主要な疑問に焦点を当てるという。
専門家チームを率いるのは、マサチューセッツ工科大学(MIT)のCenter for Deployable Machine Learning(CDML)の所長で、MITのAIポリシーフォーラム(AI Policy Forum)の教授団共同代表を務めるAleksander Madry氏だ。
研究を拡大するため、OpenAIは、壊滅的な悪用を防止するためのコンテスト「AI Preparedness Challenge」も開始した。上位の提案最大10件に最高2万5000ドル(約370万円)相当のAPIクレジットを提供する。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス