生成AIは学生の不正行為を助長しない--スタンフォード大調査

Sabrina Ortiz (ZDNET.com) 翻訳校正: 佐藤卓 吉武稔夫 (ガリレオ)2023年12月19日 10時26分

 生成人工知能(AI)ツールの台頭によって将来の教育システムの完全性が失われることを、多くの人が懸念している。例えば、数学や論文作成やコーディングで「ChatGPT」のような無料ツールの助けを得られるなら、学生があらゆる課題でそうしたツールを使って不正を働くのを阻止する方法はあるだろうか。スタンフォード大学は、この問題について調査した同大学の研究者の話をインタビュー形式で公開した。

カンニングをしている人物
提供:mediaphotos/Getty Images

 スタンフォード大学の教育学者Victor Lee氏とDenise Pope氏によれば、学生による不正行為と利用できるテクノロジーの間には、ほとんど関連性がないことが分かったという。

 Pope氏は次のように述べている。「AIのおかげで学生が不正を働きやすくなり、不正が行われる確率が高まっていると盛んに報じられている」「だが、私たちのデータでは、今のところそのような兆候は見られない」

 ChatGPTや類似のAIテクノロジーが登場するはるか以前から、不正行為の多さは教育システムを悩ませてきた。Pope氏によれば、学生の60~70%が、過去1カ月間に少なくとも一度は「不正」を働いたと報告していたという。

 ただし、2023年の調査では、この割合は以前と同じかわずかに減少していた。ChatGPTなどの新しいテクノロジーに特化した質問や、ChatGPTを学校からの課題にどのように利用しているかといった質問が追加されていたにもかかわらずだ。

 学生がこの調査に正直に回答したのか疑う人もいるかもしれないが、両氏によれば、この調査は匿名で行われたうえ、「不正行為を働いていますか」などと直接的に尋ねるのではなく、不正とみなされるさまざまな行為について具体的に尋ねたため、学生はおおむね正直に回答したという。

 「現時点で言える最も確実なことは、多くの人にとって驚きかもしれないが、データが示しているとおり、不正行為の頻度はAIのせいで高まってなどいないということだ」と、Lee氏は語った。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]