生成人工知能(AI)ツールの台頭によって将来の教育システムの完全性が失われることを、多くの人が懸念している。例えば、数学や論文作成やコーディングで「ChatGPT」のような無料ツールの助けを得られるなら、学生があらゆる課題でそうしたツールを使って不正を働くのを阻止する方法はあるだろうか。スタンフォード大学は、この問題について調査した同大学の研究者の話をインタビュー形式で公開した。
スタンフォード大学の教育学者Victor Lee氏とDenise Pope氏によれば、学生による不正行為と利用できるテクノロジーの間には、ほとんど関連性がないことが分かったという。
Pope氏は次のように述べている。「AIのおかげで学生が不正を働きやすくなり、不正が行われる確率が高まっていると盛んに報じられている」「だが、私たちのデータでは、今のところそのような兆候は見られない」
ChatGPTや類似のAIテクノロジーが登場するはるか以前から、不正行為の多さは教育システムを悩ませてきた。Pope氏によれば、学生の60~70%が、過去1カ月間に少なくとも一度は「不正」を働いたと報告していたという。
ただし、2023年の調査では、この割合は以前と同じかわずかに減少していた。ChatGPTなどの新しいテクノロジーに特化した質問や、ChatGPTを学校からの課題にどのように利用しているかといった質問が追加されていたにもかかわらずだ。
学生がこの調査に正直に回答したのか疑う人もいるかもしれないが、両氏によれば、この調査は匿名で行われたうえ、「不正行為を働いていますか」などと直接的に尋ねるのではなく、不正とみなされるさまざまな行為について具体的に尋ねたため、学生はおおむね正直に回答したという。
「現時点で言える最も確実なことは、多くの人にとって驚きかもしれないが、データが示しているとおり、不正行為の頻度はAIのせいで高まってなどいないということだ」と、Lee氏は語った。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」