生成AIにレポートを書かせる学生が増えている。この問題自体は以前から認識していたので、もちろん指導もしていたし、生成AI対策として工夫を凝らした出題も行ってきた。しかし、それでも生成AIで書いて済ませる学生が出てきている。
生成AI対策をしたレポートの出題の概要は、こうだ。
「情報リテラシーについて講義で学んだ範囲から、解決できていないテーマを選ぶ。テーマに対してChatGPTに回答させる。ChatGPTの回答に対する自分の考えをレポートにまとめる。一つ以上、ChatGPTが出していない考えを出したり、反対意見を述べる。根拠となる出典(URL・記事名まで)を明示する」
狙いは、生成AIに頼らない学生に生成AIを使わせることと、生成AIだけで完結できない課題にすることの二つだった。生成AIの回答をただ提出すれば単位が取れるような甘い課題にはしたくなかった。
ところがレポートを確認するうちに、根拠として挙げられた出典が妙であることに気付いた。URLをクリックするとリンク切れだったり、まったく異なる記事が表示されたりする。また、存在しない記事や著作名が記されていることもあった。生成AIが出した出典を確認もせず、そのまま使ってしまった学生が複数いることに気づいたのだ。
生成AIだけでは書きづらい課題を設定したつもりだったが、それでもなお生成AIに丸投げしている学生は複数存在した。途中から怪しいものはすべて複数の生成AIチェッカーにかけるようにした。余談だが、他の大学の教員と話したら、「そういう学生はたくさんいますよ。いつも落としています」と言っていた。
中でも生成AIで書いた疑いが強い学生に対しては、「すべて生成AIで書かれた疑いがある。異議がある場合は申し出ること」とコメントを添えて、限りなく低い点数を付けた。全体で8本あったが、その後抗議に来た学生はいなかった。
一方で、自分で書いたと見られるレポートなのに、根拠とした文献が存在しないケースが18本あった。レポート全体の2割弱に何らかの問題があることになる。
後で学生に聞いたところ、「根拠となる出典が見つからず、AIが示したものをそのまま使ってしまった」「まずAIにざっと書かせ、それを修正したが、根拠の部分が間違っているとは思わなかった」という回答だった。
根拠が見つからなければ素直に「見つからなかった」と書けばよい。それにもかかわらず、最初から生成AIに書かせるのが当たり前になっている学生がいる。生成AIが示した情報を確認せず信じてしまう学生がいる、というのが現実だ。
講義では生成AIの「ハルシネーション」について繰り返し説明し、固有名詞や事実関係などは特に注意が必要で、人間が最終確認すべきことを何度も強調してきた。私自身もChatGPTが存在しない文献をさもありそうに提示することを知っていたが、学生がそれを信じてそのまま出典として使うとは予想していなかった。
彼らはタイパ世代だ。タイパと生成AIは相性がいいから、受け入れられたのだろう。しかし、これでは「パフォーマンス」部分が欠けている。タップすれば、ちょっと検索すれば、記事や著作が存在しないことはすぐに分かったはずだ。まさか教員がすべての記事や著作の存在を調べるとは思わず、そのまま出してしまったのだ。
4月に今年の学生にアンケートを実施した。それによると、「生成AIについて知っていたしプライベートで使っている」(48.3%)、「使っており、有料プランに入るなど課金もしている」(3.4%)、「知っていたが使っていない」(32.9%)、「名前は聞いたことがあるがよくわからない」(12.1%)、「知らなかった」(5.4%)となり、利用率は5割以上だった。
2023年度の受講生対象に行った調査では、「ChatGPTについて知っていましたか?」という質問に対して、「知っていたし使っていた」は10.4%、「知っていたが使っていない」は45.1%と、認知率は半数強、利用率は1割止まりだった。一方で、「名前は聞いたことがあるがよくわからない」は15.9%であり、28.7%と約3割は「知らなかった」と回答していた。「この講義で初めて聞いた」という学生も複数名いる状態だったことを考えると、この数年での利用率の伸びは驚くべきものだ。
今年の学生に、生成AIに関してしたことがあることも聞いている。「レポートや課題を作成、コピペして提出したことがある」(6.0%)、「レポートや課題の下書きをさせ、少し手直しして出したことがある」(19.5%)などレポートや課題に使っている割合は4分の1に上る。「英訳、翻訳などをしたことがある」(40.3%)や「アイデアだしに使ったことがある」(36.9%)など学習に利用するだけでなく、「ディープフェイク画像や動画を作成したことがある」(0.7%)などの使い方をする学生もいるようだ。
今回のレポートの総評の後、アンケートを取った。「生成AIの示す『根拠となる文献』は実在しないことが多い信用できないものだが、自分が当てはまることを選んでください」と聞いたところ、回答は以下のようになった。
「文献が信用できないことを知っており、レポートで使ったこともない」(51.3%)」「文献が信用できないことを知っているが、レポートで使ったことがある」(23.5%)、「文献が信用できないことを知らず、レポートで使ってしまった」(8.7%)、「文献が信用できないことを知らなかったが、レポートで使わなかった」(16.5%)。
正直に答えていると思う。理解していて悪用しなかった学生は5割。一方、4分の1は理解しているが使ったことがあり、理解していなかった学生も4分の1いたのだ。
ただし、信用できないことを本当に理解していたら、レポートに安易に使うわけがない。本当には理解していなかったということになる。私の伝え方ではまだ十分ではなかったことがわかり、大いに反省させられた。次年度は、ここまで具体的に伝えなければならないだろう。
今時の学生にとって、生成AIはあまりに身近なサービスだ。社会に出れば使うことが求められる時代でもあり、使わせないのではなく、むしろ使いこなす能力を高めることが教育機関の役割と考えている。ただし現状は使いこなせる状態には至っていない。
昨年までは、少なくとも明らかなAI製のレポートや、存在しない文献はなかったように思う。今後は、生成AIの適切な使い方について特に力を入れなければならない時代になっていることを感じる。
Amazonで現在開催中のセールを見る高橋暁子
ITジャーナリスト、成蹊大学客員教授。SNS、10代のネット利用、情報モラルリテラシーが専門。スマホやインターネット関連の事件やトラブル、ICT教育に詳しい。執筆・講演・メディア出演・監修などを手掛ける。『若者はLINEに「。」をつけない 大人のためのSNS講義』(講談社+α新書)など著作多数。NHK『あさイチ』『クローズアップ現代+』などテレビ出演多数。教育出版中学国語教科書にコラム 掲載中。元小学校教員。
公式サイト:https://www.akiakatsuki.com/
Twitter:@akiakatsuki
CNET Japanの記事を毎朝メールでまとめ読み(無料)
Copilot + PCならではのAI機能にくわえ
HP独自のAI機能がPCに変革をもたらす
ドコモビジネス×海外発スタートアップ
共創で生まれた“使える”人流解析とは