「ChatGPT」の言語モデル統合で「Bing」はグーグルの牙城を崩せるか - (page 2)

Sareena Dayaram (CNET News) 翻訳校正: 編集部2023年02月07日 07時30分

ChatGPTはどれくらい賢いのか

 ご存じのとおり、ChatGPTは高機能なチャットボットだ。2022年11月30日、ネット環境があれば誰でも利用できる無料のオンラインツールとして一般公開されると、たちまち世界中で話題となった。ChatGPTには言語モデル「GPT-3.5」が採用されており、質問文を投げかけると、ものの数秒で楽しい詩を書き上げ、献立を提案し、複雑な質問にもっともらしい回答を返す。土台となっている技術は必ずしも最新のものではないが、ChatGPTほど大きく取り上げられたチャットボットはない。OpenAIがGPT-3.5を軸に、スマートなユーザー体験を構築したことが現在の熱狂の一因となっている。

 GPT-3.5は2020年に登場した「GPT-3」の改良版だ。スタンフォード大学の研究チームによると、GPT-3は570GBものテキストを学習しており、パラメーター数は1750億個に上る(Google CloudのDale Markowitz氏は、「ウェブ上に公開されている情報のほぼすべてを含む」45TBのテキスト」と表現している)。ちなみに前身の「GPT-2」のパラメーター数は15億個で、100分の1以下だった。

 スタンフォード大学「人間中心のAI研究所」(HAI)の研究チームは、2021年の投稿で次のように述べている。「規模が劇的に大きくなったことでモデルの挙動も変わった。GPT-3は、英語からフランス語への翻訳など、明示的に学習していないタスクも、ほとんど、あるいはまったくトレーニングされていない状態で実行できる。こうした挙動はGPT-2ではほとんど見られなかった」

 「現在のChatGPTは、おそらく人間よりも世界を知っており、その知識を分かりやすく提示できる」とKorineck氏は言う。

 ChatGPTに対する期待は大きいが、限界もまた多い。批判派は、ChatGPTの回答は根拠があいまいで、信用できないと言う。学習したデータに偏った情報や誤った情報が含まれていた場合、ChatGPTの信頼性が高まることはないと指摘する人も少なくない。

 OpenAIは、現在のChatGPTに弱点があることを認めている。CEOのSam Altman氏は2022年12月、課題は「堅牢性と情報の真実性」であり、「現時点で、(ChatGPTの回答を)重要な問題の判断材料とするのは間違いだ」とツイートした。

 しかし、AIブームは当面衰えそうにない。

 「2023年にはChatGPTのようなシステムがいくつも登場し、競争が起きるだろう」とKorinek氏は言う。「競争は、消費者にとって選択肢が増えるというメリットがあり、うまく行けば製品の改善にもつながる」

 現在、開発段階にある「GPT-4」はパラメーター数が100兆個になると報じられている。しかし、Altman氏は1月上旬にStrictlyVCのインタビューに応じ、「安全で、かつ責任を持てると確信できる」まで、GPT-4はリリースしない考えを示した。

 GPT-4は、ChatGPTを支える高度な言語モデルGPTの第4世代に当たる。しかしAltman氏は「われわれは『AGI』を持っていない」と述べ、過熱する期待をけん制する。AGIはArtificial General Intelligence(汎用人工知能)の略で、独自に考える力を持つAIだ。現在OpenAIが採用している、ディープラーニングモデルに依存したAIとは異なる。AGIこそ、100年以上前からSFなどで描かれてきたAIであり、最近ではアンドロイドの反乱を描き、多くの賞を受賞したSFドラマ「ウエストワールド」に登場したAIも、AGIに分類される。

 Altman氏は同インタビューの中で、「(AGIの実現を)期待されていることは認識している」と述べ、GPT-4はそうした期待を抱いている人々を「失望させるだろう」と付け加えた。

 

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]