OpenAIのテキスト生成プログラム「ChatGPT」は大人気だが、その性能は科学研究に関して膨大な数の誤った情報を広める恐れをはらんでおり、内部機能を精査できるオープンソースの代替プログラムが必要であることなど、課題を指摘する論評が、権威ある学術誌「Nature」に掲載された。
「ChatGPT: five priorities for research」(ChatGPT:5つの優先すべき研究課題)というタイトルの論評で、研究者らは「専門的な研究に会話型AIを利用すれば、誤り、偏見、盗用が持ち込まれる可能性が高まる」点をきわめて広範な危険として挙げ、「ChatGPTを利用する研究者は、誤りや偏りのある情報によって誤った方向に導かれ、そこから得た結論を自身の思考や論文に取り込んでしまう危険がある」と指摘した。
この論評の筆頭著者は、オランダにあるアムステルダム大学の精神医学科・同大学医療センターの博士課程修了研究者で心理学者のEva A. M. van Dis氏だ。
「現時点で、最先端の会話型人工知能(AI)のほぼすべてが、AI技術のリソースを抱える少数の大手ハイテク企業のプロプライエタリー製品となっている」と、研究者らは述べている。
そのため、「研究コミュニティーにとって最も差し迫った問題の1つは、透明性の欠如だ」として、「この不透明性に対抗するには、オープンソースのAIの開発と実装を優先させる必要がある」と訴えている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス