logo

イソップ童話を思い出させる「危険すぎて公開できないAIアルゴリズム」の話

  • このエントリーをはてなブックマークに追加

 OpenAIが先ごろ発表していた「GPT-2」というテキスト処理関連のアルゴリズムについて、「危険なほどよくできている」ことを理由に公開を見送るという方針を打ち出していた。そして、この判断に対して一部の人工知能(AI)研究者・開発者の間から「おかしいのではないか」という反論の声が上がっている。その話を今回は紹介する。

 「GPT-2」発表のニュースについては下記のCNET記事をご覧いただきたい。

 実はこの記事、依拠したオリジナル(英語記事)のほうは次のような見出しになっていた。直訳すると「Musk氏が支援するAI組織:われわれのテキストジェネレーターは恐ろしいほど優秀だ」となる。

 こうした伝え方――あからさまに扇情的な見出しやリードを付したもの――はCNET.com記事に限ったことではなく、たとえばThe VergeやTechCrunchでも下記のような記事を掲載していた。それぞれ直訳すると「OpenAIの新しい多才なAIは書き、翻訳し、中傷する」「OpenAIがあまりに優れたテキストジェネレーターを開発したため、公開は危険すぎると考えられている」となる。

 自分たちの開発したアルゴリズム(またはモデル)の優秀さを伝えようとして、こうしたアピールの仕方をすることにしたOpenAI側の姿勢にも批判の声が上がっているようだが、その点についてはのちに触れることにする。

「危険なアルゴリズム」はどの程度危険なのか

 まず、OpenAIの判断が一部で議論を巻き起こしているとの話を伝えた下記のThe Verge記事には、「GPT-2の能力は、人間の文章理解力や作文能力とはまだ大きな隔たりがある」「GPT-2自体は実はブレークスルーとはいえないもので、それでも最先端のAIを使ったテキスト生成技術ができることをうまく示したものにすぎない」とも書かれてある。

 その点を踏まえた上で、OpenAIの判断に意義を唱える人たちが問題視する主な点が3つほど挙げられている。具体的には次の3点である。

  1. GPT-2のモデルとその開発に使ったデータを非公開にするると、ほかの研究者たちが同モデルの中身を精査したり、自分たちで再現したりすることができなくなる(部外者にはそれがどの程度危険なのかの見極めができない。また、部外者が研究の成果を享受し、その上でコミュニティーに貢献することもできない)
  2. GPT-2のモデルはOpenAIが主張するような大きな脅威とはならない。
  3. AIというと何かと脅威論に傾きがちなメディアに対してOpenAIは十分な対応をしておらず、結果的にこの種のニュースが歪んだ形で報じられてしまう。

 この指摘に続けて、それぞれの点に関する具体的な議論(反対意見)の中身が記されている。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]