まず1)については、GPT-2のようなアルゴリズムの研究開発には比較的潤沢なリソースが必要で、OpenAIのような資金的に恵まれた組織だからこそできること。そういう組織が活動の成果を非公開(もしく独り占め)にしてしまうと、AIの研究開発に携わるコミュニティー全体に恩恵が行き渡らなくなってしまう(それではそもそもOpenAIのような非営利組織をつくった意味がない)というもの。「研究の成果がきちんと公開・共有されないと、学者たちはとくに不利な立場に置かれてしまう」「OpenAIは実質的にその影響力を行使してマシンラーニング(ML)研究をクローズドで他者には手の届かないものにしようとした」というカリフォルニア工科大の教授でNVIDIAのML研究責任者も務めるAnima Anandkumar氏という研究者の発言が引用されている。
さらにこの研究者は、問題のモデルを非公開にすることにしたOpenAIの理由についての説明がおかしいとも指摘。具体的には、「GPT-2のようなものは、研究リソースの限られた学者にはたしかに再現するのが難しいものの、他の資金力のある研究者グループなどには比較的簡単に再現できる。そのため、たとえばオンラインでのプロパガンダを画策・実行する国家機関などは自分たちで再現したGPT-2を悪用できてしまう」とも述べ、「AIがスパムや偽りの情報の自動生成に使われることの脅威は本物の脅威だが、特定のモデルへのアクセスを制限しても問題の解決にはならないと思う」としている。
2)の点については「OpenAIの主張する脅威は大げさ(誇張されている)」とするDelip Rao氏なるテキスト生成AIの専門家のコメントがある。フェイクニュースなどを検知するプロジェクトに携わってきたこの研究者によれば、「フェイクニュースでは文章の質などは大して問われない(単にコピペするだけで十分)なので、わざわざ洒落たML技術など使う必要はない」のだという。またこの研究者は「『危険すぎる(ので)」という言葉が多くの施策や実験抜きで気軽に使われている」「これが実際に危険であることを証明する時間をOpenAIが十分にとったとは思えない」とも書いている。
3)の点については、「危険すぎるから公開しない」という部分ばかりが報じられて、その技術が及ぼす本当の脅威がわかりにくくなってしまいかねない、あるいは世間での評判が芳しくなくなりかねず、そうなると長い目で見て研究資金の調達に支障が出かねない、などといった批判あるいは懸念が挙げられている。またこのなかには「この種の事柄についてきちんと報道・説明できないメディア側にも問題がある」という指摘もある。
そうしたことで、GPT-2が単によくできたAIモデルなのか、それとも「危険だから公開できない」ようなものなのか、という肝心のところは(少なくとも現時点では)よくわからない(生憎とOpenAIが公開した研究論文の中身が理解できるほどの専門知識がないため)。ただし、本当に危険なもの、すぐにも悪意ある者に悪用されてしまいそうなものであれば、当事者がそもそも発表すら差し控え、できたものは闇に葬り去るだろうという点は門外漢でも推測できる。それを前提にして考えると、今回の発表ではOpenAI側がやはりヘマをやらかしたとの印象を受けるが、ただし本当に怖いのは、この種のAI脅威論につながりかねない報道の繰り返しが、イソップ寓話の「嘘をつく子供」――「狼が来た」となんども嘘をつく羊飼いの少年の話のようになりはしないか……ということで、全体としていささか後味の悪い話と思えた次第である。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」