チャットできるAI「ChatGPT」は人の仕事を奪うか?

JACKSON RYAN (CNET News) 翻訳校正: 編集部2022年12月13日 07時30分

 最近ソーシャルメディアを少しでもチェックした人は(要するに全員だが)、「ChatGPT」という言葉を目にしたはずだ。OpenAIが開発したこのチャットボットは、米国時間11月30日にリリースされるやいなや人々の度肝を抜き、話題を独占した。ChatGPTは、ユーザーが入力した質問に対して、驚くほど自然で説得力のある回答を返す、気の利いた人工知能(AI)だ。

チャットボットのイメージ写真
提供:Getty Images

 例えば、「映画『ナイブズ・アウト/名探偵と刃の館の秘密』のあらすじを書いてほしい」と頼むと、主人公ブノワ・ブランの南部なまりをスルーしたことを除けば、それらしい文章を返してくる。コードのエラーを修正したり、大学レベルの自由記述問題に合格点の回答を書き上げたりすることも可能だ。

 ChatGPTの回答は人々を驚がくさせ、「Googleは終わった」と言う人まで現れた。Googleどころか、人間の仕事全般が脅かされていると考える人さえいる。

 例えばThe Guardianは、「数年後には教授、プログラマー、ジャーナリストは職を失っているかもしれない」と嘆いた。オーストラリアコンピューター協会(ACS)の機関誌Information Ageもおおむね同じ論調だ。The Telegraphは、ChatGPTは「人間の仕事を、人間よりうまくやってのける」可能性があると報じた。

 落ち着いてほしい。ChatGPTが人間の仕事を奪うことはない。

 その理由をよく表しているのが、Information Ageに掲載された1本の記事だ。同誌は、ChatGPTに関する記事をChatGPTに書かせ、その結果を短い紹介文を添えて掲載した。書かれた記事は、このAIに関する基本的な事実を並べたもので、非常にシンプルだ。問題は、記事を「書く」にあたってChatGPTが偽の引用をひねり出し、引用元を(実在するらしい)OpenAIの研究者としたことである。

 これはChatGPTのような大規模言語モデルの重大な欠点を浮き彫りにしている。事実とフィクションを区別できないのだ。訓練してもできない。このAIは単語を並べ替え、分かりやすい文章を書くようにプログラムされているにすぎない。

 この重要な特徴は、ChatGPT(またはその基盤となっているOpenAIの大規模言語モデル「GPT-3.5」)がニュースを書いたり、時事問題を論じたりする作業に根本的に向いていない理由となっている(データのリアルタイム学習にも対応していないが、これはまた別の話だ)。要するに、ChatGPTには間違いなくジャーナリストの仕事はできない。できると言う人がいるなら、それはジャーナリズムを矮小(わいしょう)化している。

 ChatGPTは、ロシアの侵攻についてウクライナ人と話すために世界を駆け回ることはないし、ワールドカップで優勝した時にフランス代表Kylian Mbappe選手の顔に浮かんだ感情を読み取ることもできない。もちろん、南極に向かう船に飛び乗って体験談を書いたりもしない。CEOの裏の顔をうかがわせる発言を耳にしても、何の疑問も抱かない。Elon Musk氏のTwitter買収に関する記事を書くことなど到底無理だ。真偽の判断ができず、場の空気を敏感に察知することもできないのだから。

 ChatGPTが好意的に受け取られていることは興味深い。もちろん称賛には値するし、OpenAIが前モデルの「GPT-3」に加えた改良に関するドキュメントは、それ自体が興味をそそられるものだ。しかし、ChatGPTが注目を集めている大きな理由は使いやすさにある。

 GPT-3には、インターネット上で気軽に使える洗練されたフレームワークがなかった。The Guardianなどが記事の作成に使ったりはしたものの、インターネット上でいっとき話題になったにすぎない。しかし実際に対話ができ、スクリーンショットも共有できるチャットボットを開発することで、この技術は幅広く使われるようになり、話題性もはるかに高まった。逆に、それがこのChatGPTがやや過大評価されている理由にもなっている。

 奇しくも、ChatGPTの少し前に話題になったAIがある。

 11月15日にMeta AIが発表した「Galactica」だ。ChatGPTと同様に、この大規模言語モデルも「科学を整理する」方法として話題を呼んだ。Galacticaは「量子重力とは何か」という問いに答えたり、数学の方程式を説明したりすることができた。ChatGPTと同じように、質問を投げかければ答えてくれた。

 Galacticaは、4800万本以上の科学論文とアブストラクトを使って訓練されており、もっともらしい答えを導き出すことができた。開発チームは、このチャットボットを知識を整理する方法として宣伝し、Wikipediaの記事や科学論文も生成できると豪語した。

 問題は、Galacticaが生成する回答のほとんどが価値のないもの、もっともらしいが無意味な文章だったことだ。参考文献がでっち上げだったことさえあった。簡単なプロンプトに答えるためにGalacticaが生み出す大量の誤情報とその危険性は、学者やAI研究者たちをいら立たせ、Twitterでは批判が飛び交った。こうした批判を受け、Meta AIチームはこのプロジェクトを公開からわずか2日後に中止した。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]