ChatGPTは「深みと洞察に欠ける」--科学誌編集者が評価

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 中村智恵子 高橋朋子 (ガリレオ)2023年01月24日 11時23分

 人間の質問に対して自然な言語で回答する「ChatGPT」。OpenAIが手掛ける同プログラムについては最近、その大きな可能性がしきりと取り沙汰されている。

Barbara Treutlein氏とPatrick Cahan氏
「Stem Cell Reports」のBarbara Treutlein氏(左)とPatrick Cahan氏
提供:Cell Press

 同時に、明らかな間違いを含む論文が発表されかねないなど、ChatGPTの問題点についても多くの指摘がなされている。「Nature」は、同プログラムが「科学論文の内容と完全性に責任を負えないため」学術論文の著者としての基準を満たさないと報告している

 またChatGPTにはもう1つ、より微妙な問題点があることに、学術界の一部が気付きつつある。それは、たとえ内容が不正確でなくても、生成される結果が平凡であまりに一般的な、情報の乏しいものになる傾向がみられることだ。

 科学系出版大手Cell Pressの学術誌「Stem Cell Reports」の編集者Barbara Treutlein氏とPatrick Cahan氏は、同誌の論説の執筆にChatGPTを利用してみた結果、そのことを発見した。論説は1月10日付で掲載された。

 2人の編集者は、計算システム生物学の分野に関するさまざまな基本的質問をChatGPTに投げかけた。その目的は「計算の進化が(中略)時間の節約につながり、ひいてはより多くの研究を可能にすることで、幅広い幹細胞研究に取り組む研究者にいかに役立つか」を実証することにあった。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]