OpenAIが先ごろ発表していた「GPT-2」というテキスト処理関連のアルゴリズムについて、「危険なほどよくできている」ことを理由に公開を見送るという方針を打ち出していた。そして、この判断に対して一部の人工知能(AI)研究者・開発者の間から「おかしいのではないか」という反論の声が上がっている。その話を今回は紹介する。
「GPT-2」発表のニュースについては下記のCNET記事をご覧いただきたい。
実はこの記事、依拠したオリジナル(英語記事)のほうは次のような見出しになっていた。直訳すると「Musk氏が支援するAI組織:われわれのテキストジェネレーターは恐ろしいほど優秀だ」となる。
こうした伝え方――あからさまに扇情的な見出しやリードを付したもの――はCNET.com記事に限ったことではなく、たとえばThe VergeやTechCrunchでも下記のような記事を掲載していた。それぞれ直訳すると「OpenAIの新しい多才なAIは書き、翻訳し、中傷する」「OpenAIがあまりに優れたテキストジェネレーターを開発したため、公開は危険すぎると考えられている」となる。
自分たちの開発したアルゴリズム(またはモデル)の優秀さを伝えようとして、こうしたアピールの仕方をすることにしたOpenAI側の姿勢にも批判の声が上がっているようだが、その点についてはのちに触れることにする。
まず、OpenAIの判断が一部で議論を巻き起こしているとの話を伝えた下記のThe Verge記事には、「GPT-2の能力は、人間の文章理解力や作文能力とはまだ大きな隔たりがある」「GPT-2自体は実はブレークスルーとはいえないもので、それでも最先端のAIを使ったテキスト生成技術ができることをうまく示したものにすぎない」とも書かれてある。
その点を踏まえた上で、OpenAIの判断に意義を唱える人たちが問題視する主な点が3つほど挙げられている。具体的には次の3点である。
この指摘に続けて、それぞれの点に関する具体的な議論(反対意見)の中身が記されている。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」