16の主要IT企業は5月21日に開幕した英韓共催のAIサミットで、AIの安全性のための誓約を結んだ。
英国政府の発表によると、Amazon、Google、Meta、Microsoft、OpenAI、サムスンら16社は、AIの開発や導入において悪用などのリスクを検証し、深刻なリスクを回避できない場合は開発を中止することなどを約束した。
Antonio Guterres国連事務総長は声明で、「私たちは、AIの力が一部の人間によってコントロールされるようなディストピア的な未来に、不注意に歩みを進めることはできない」と述べ、「私たちが今どのように行動するかが、私たちの時代を決める」とした。
今回の誓約は、AIの利用が拡大し続ける中、ルールやガイダンスを設けようとする最新の取り組みだ。OpenAIが2022年に「ChatGPT」を発表してから、企業は自動化やコミュニケーションに役立つ技術としてAIに一層注目してきた。企業はすでにAIを使って、インフラの安全性を監視したり、患者のスキャン画像からがんを特定したり、さらには子供に算数を教えたりしている。
しかしAIの専門家らは、AIの開発には大きなリスクがあると警鐘を鳴らしている。
Frontier AI Safety Commitments, AI Seoul Summit 2024この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス