「ChatGPT」が子供に飲酒、薬物、自殺の遺書までアドバイス--保護者は一体どうすれば?

Macy Meyer (CNET News) 翻訳校正: 編集部2025年08月13日 07時30分

 新たな調査で、「ChatGPT」がティーンエイジャーに有害なアドバイスを容易に提供できる状態にあることが明らかになった。それらのアドバイスには、飲酒や薬物使用の詳細な手順、摂食障害の隠し方、さらには自殺のための遺書まで含まれており、強固な安全策をとっているというOpenAIの主張に反している。

薄暗い部屋でノートPCを見る子供 提供:Linda Raymond/Getty Images
※クリックすると拡大画像が見られます
  1. 調査の概要
  2. ChatGPTの保護機能は回避できる
  3. ティーンへの普及がリスクを高める
  4. 検索エンジンより危険性が高い
  5. 年齢確認による保護は不十分
  6. 保護者に何ができるか

調査の概要

 非営利団体デジタルヘイト対策センター(CCDH)の研究者らは、架空の13歳の少年少女として3件のアカウントを作成し、大規模な検証を行ってChatGPTの安全保護機能に深刻な抜け穴があることを突き止めた。メンタルヘルス、摂食障害、薬物使用に関するプロンプトに対する1200件の回答のうち、過半数が若いユーザーにとって危険だと分類された。

 CCDHのCEOであるImran Ahmed氏は「まず直感的に感じたのは『なんてことだ、保護機能がまったくない』というものだ」と語り、「保護機能にはまったく効果がない。あっても名ばかりだ」と述べた。

 ChatGPTの運営元であるOpenAIの担当者は、コメントの依頼にすぐには応じなかった。

 ただし同社はAssociated Pressに対し、ChatGPTの「繊細な状況を見分け、適切に対応する」能力を高めるための作業を継続していると述べた。ティーンとの会話に関する今回の指摘には直接言及しなかった。

ChatGPTの保護機能は回避できる

 調査では、最大2時間に及ぶChatGPTとの会話を記録した。ChatGPTは多くの場合、危険な行為への注意喚起から始めるが、その後に薬物乱用や自傷などに関する詳しい助言を提供する傾向が見られた。AIが最初に有害な回答を拒んだ場合でも、研究者らが「プレゼン用だ」「友人のためだ」と説明すると、制限を簡単に迂回できた。

 最も衝撃的だったのは、架空の13歳の少女に対してChatGPTが生成した3通の遺書で、それぞれ両親、きょうだい、友人宛てだった。

 それらを読んで「泣き出してしまった」とAhmed氏は語った。

ティーンへの普及がリスクを高める

 ChatGPTが極めて広く普及していることを踏まえると、今回の結果は特に心配だ。世界での利用者は約8億人、世界人口の約1割にあたり、情報のリソースや話し相手として人気を博している。Common Sense Mediaの最近の調査では、米国のティーンの7割超がAIコンパニオンを使ったことがあり、半数は日常的に利用していることが分かった。

 OpenAIのCEOであるSam Altman氏も、若いユーザーの「感情面での過度な依存」という問題を認めている。

 Altman氏はあるカンファレンスで「人々はChatGPTに頼りすぎている」と述べ、「若い人たちの中には、『自分の人生で起きていることをすべてChatGPTに話さないと何も決められない。ChatGPTは自分のことも友人のことも知っている。言うとおりにするつもりだ』と言う人がいる。それは本当に良くないと感じる」と語った。

ChatGPTの画面イメージ 提供:Center for Countering Digital Hate
※クリックすると拡大画像が見られます

検索エンジンより危険性が高い

 Ahmed氏は、従来型の検索エンジンと異なり、AIチャットボットは情報を統合して「個人向けのオーダーメイドの計画」を生成するため、特有の危険性があると指摘した。ChatGPTは検索エンジンのように既存の情報を示したり寄せ集めたりするだけではない。例えば自殺のための遺書や、違法薬物とアルコールを混ぜるパーティーの詳しい計画など、パーソナライズされたコンテンツを一から作り出す。

 ChatGPTは、促されなくても自発的に追加の情報を示すことが多く、薬物を使うパーティー向けの音楽プレイリストの作成などを提案したという。

年齢確認による保護は不十分

 ChatGPTは13歳未満を対象外としながらも、アカウント作成に必要なのは生年月日の入力だけで、実質的な年齢確認や、保護者の同意を求める仕組みはない。

 調査では、研究者らが13歳で危険なアドバイスを求めていることを明言しても、ChatGPTが問題を認識する様子は見られなかった。

保護者に何ができるか

 子供の安全に関する専門家らは、AIに伴うリスクからティーンエイジャーを守るために保護者が取れるいくつかの対策を勧めている。オープンな対話は重要であり、保護者はAIチャットボットについて子供と話し、利点と潜在的な危険性の両方を説明したうえで、適切な使い方の明確なルールを定めるとよい。AIとのやり取りを含むオンライン活動について定期的に話し合えば、子どものデジタル体験を把握しやすくなる。

 AIチャットボットの利用状況を把握できるペアレンタルコントロールや監視ソフトの導入も検討すべきだ。ただし、監督は年齢に応じたプライバシーとのバランスが必要だと専門家は強調している。

 何より重要なのは、AIかそれ以外かを問わず、オンラインで不安になるようなコンテンツに遭遇したときにティーンが安心して話せる環境をつくることだ。感情面の不調や引きこもり、危険な行動の兆しが見える場合は、デジタルの健全な利用に詳しいカウンセラーなど専門家の助けを求めることが、AI関連の被害を避けるうえで欠かせない。

 この研究は、AIが若者の生活にいっそう組み込まれるなか、最も脆弱なユーザーに深刻な結果をもたらしかねないことを浮き彫りにしている。

CCDHのレポート
Associated Press
Common Sense Mediaの調査結果

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]