ChatGPTはGalacticaと同じ方向に向かっているようには見えない。ChatGPTはGalacticaよりも「スマート」に感じられるし、はるかに強力なフィルターを備えているように見える。例えば、Galacticaは爆弾の製造方法を聞かれても答えていたが、ChatGPTは差別的、攻撃的、不適切なリクエストには応じない。会話をし、間違いを認める訓練も受けている。
それでもChatGPTには、すべての大規模言語モデルに共通する限界がある。ChatGPTの目的は、ウェブ上に存在する何十億(何兆?)もの単語を学習し、その知識をもとに文章を組み立て、作曲したり、ちょっとした作文をしたりすることだ。大量の単語を組み合わせて、最適な構成になるように予測しているにすぎない。
実際、ChatGPTはかなり説得力のある文章が書ける。その一方で、Galacticaと同じようにゴミも吐き出す。正しい答えを出すとは限らないAIから学ぶことができるだろうか。AIはどのような仕事を代替しうるだろうか。私たちは読んでいる記事の書き手が誰なのかを把握できるだろうか。どうすればAIの出した答えが真実かどうかを判断できるのだろう。もっともらしく聞こえるところが、なおさら始末が悪い。OpenAIのチームは、このチャットボットの欠点を認識しているが、解決には至っておらず、それがこの手のAIの限界となっている。
この誕生したばかりのチャットボットは確かに楽しい。カボチャを自慢したくてたまらない男にAIアライメントを説明させたやり取りなどは、最高におもしろかった。しかし、だからといって、このAIが教授やプログラマー、ジャーナリストを廃業に追い込むとは考えにくい。むしろ短期的には、ChatGPTとその基盤となっている言語モデルはそうした仕事を補完してくれる可能性が高い。これはツールであって、人間に取って代わるものではない。ジャーナリストが長いインタビューを書き起こすためにAIを使っているように、ChatGPTのようなAIは、例えば記事のタイトルを考えるために使えるかもしれない。
実は、この記事のタイトル(ChatGPT's Writing Capabilities Stun, but Humans Are Still Essential(for Now))もChatGPTの力を借りている。しかし、ChatGPTが最初に提案してきたタイトルは完璧ではなかった。例えば、「Human Employment(人間の雇用)」、「Human Workers(人間の労働者)」といった言葉を使っていた。これはあまりにも堅苦しいし、あまりにも――ロボット的だ。感情がない。そこで、ChatGPTの提案に少し手を加えて、冒頭のタイトルに落ち着いた。
では、ChatGPTやそれを支えるAIモデルの進化版(早ければ2023年にも登場する見込み)が人間をお払い箱にする可能性はあるだろうか。
ないとはいえない。しかし今のところ、ジャーナリストが仕事を奪われる心配はなさそうだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力
働くあなたの心身コンディションを見守る
最新スマートウオッチが整える日常へ