「ChatGPT」の課題とオープンソースAIの必要性を訴える論考、Natureに掲載

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 佐藤卓 長谷睦 (ガリレオ)2023年02月16日 12時30分

 OpenAIのテキスト生成プログラム「ChatGPT」は大人気だが、その性能は科学研究に関して膨大な数の誤った情報を広める恐れをはらんでおり、内部機能を精査できるオープンソースの代替プログラムが必要であることなど、課題を指摘する論評が、権威ある学術誌「Nature」に掲載された。

OpenAIのロゴ
提供:Photo by Silas Stein/picture alliance via Getty Images

 「ChatGPT: five priorities for research」(ChatGPT:5つの優先すべき研究課題)というタイトルの論評で、研究者らは「専門的な研究に会話型AIを利用すれば、誤り、偏見、盗用が持ち込まれる可能性が高まる」点をきわめて広範な危険として挙げ、「ChatGPTを利用する研究者は、誤りや偏りのある情報によって誤った方向に導かれ、そこから得た結論を自身の思考や論文に取り込んでしまう危険がある」と指摘した。

 この論評の筆頭著者は、オランダにあるアムステルダム大学の精神医学科・同大学医療センターの博士課程修了研究者で心理学者のEva A. M. van Dis氏だ。

 「現時点で、最先端の会話型人工知能(AI)のほぼすべてが、AI技術のリソースを抱える少数の大手ハイテク企業のプロプライエタリー製品となっている」と、研究者らは述べている。

 そのため、「研究コミュニティーにとって最も差し迫った問題の1つは、透明性の欠如だ」として、「この不透明性に対抗するには、オープンソースのAIの開発と実装を優先させる必要がある」と訴えている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]