ChatGPTに頼ってはいけない11のこと--危険な使い方と注意点を解説

Nelson Aguilar (CNET News) 翻訳校正: 編集部2025年06月30日 11時50分

 私は毎日ChatGPTを使っており、これまで数多くのAIに関する記事も書いてきた。便利なツールであるのは間違いないが、だからといって何でもAI任せにするのは危険だ。実際、ChatGPTは平気で間違った情報を自信満々に伝えてくることもある。最新情報を把握していなかったり、ありもしない話をもっともらしく語ったりするのだ。

Jaap Arriens/NurPhoto via Getty Images Jaap Arriens/NurPhoto via Getty Images
※クリックすると拡大画像が見られます

 使いこなしている人も、これから試そうとしている人も、こうした“苦手分野”を理解しておく必要がある。レシピや旅行計画、コードの下書きには向いているが、万能ではない。特に、医療や税金、法律、金融など重要な判断が関わる場面では要注意だ。

 もし迷ったら、これから紹介する「ChatGPTに頼ってはいけない11のケース」を参考にしてほしい。

  1. 痛みや病気の自己診断
  2. メンタルヘルスの問題解決
  3. 緊急時の安全判断
  4. 個人的な資産運用や税金対策
  5. 機密情報や規制対象データの取り扱い
  6. 違法行為
  7. 宿題やテストの不正利用
  8. 情報のリアルタイム収集
  9. ギャンブルや勝敗予測
  10. 遺言書や法的効力を持つ契約書の作成
  11. 芸術作品の制作

1. 痛みや病気の自己診断

 好奇心から症状を入力したことがあるが、その回答は最悪のケースばかりだ。脱水症状やインフルエンザ、がんまでさまざまな可能性を示してくる。私も胸のしこりについて尋ねたところ、予想通り「がんの可能性」と言われた。実際は医師の診察を受けると、1000人に1人程度が発症する脂肪腫(良性)だった。

 もちろん、ChatGPTが医療面で全く役立たないわけではない。診察時に質問を整理したり、難しい医学用語を分かりやすく説明したり、症状の経過をまとめたりするのには役立つだろう。ただし、AIは検査や診察を行えないし、医療過誤の責任を負うこともない。その限界を理解しておこう。

2. メンタルヘルスの問題解決

 確かにChatGPTは心を落ち着かせる方法を提案できるが、本当に困ったときに電話で助けを求められるわけではない。中にはセラピスト代わりに使う人もいて、私の同僚も、悲しみを整理するのには「多少は役立った」と述べていたが、それは常にAIの限界を意識していたからこそだ。

 AIには実体験がなく、あなたの表情や声色を読み取ることもできない。本当の意味で共感する力もない。あるのは共感の「模倣」だけだ。実際のセラピストは法律や専門の倫理規定に基づいて患者を守る義務があるが、ChatGPTにはそれがない。その助言は的外れだったり、危険サインを見逃したり、学習データに潜む偏見を助長したりすることもある。こうした深く複雑な「人間の心」の問題は、訓練を積んだプロに任せるべきだ。
危機的な状況にある場合、最寄りの相談窓口に連絡してほしい。

3. 緊急時の安全判断

 一酸化炭素警報器が鳴ったとき、「ChatGPTに聞いてみよう」と考えてはいけない。まず外に出るべきだ。言語モデルはガス漏れや煙を感知できず、緊急通報もできない。非常時のわずかな時間が生死を分けることもある。AIに状況を入力している間に手遅れになってしまう可能性もある。ChatGPTはあくまで事後の解説役であり、緊急時の第一報を任せる相手ではない。

4. 個人的な資産運用や税金対策

 ChatGPTはETFの仕組みを説明できても、あなたの個別の負債状況、税率、控除内容、将来の資金計画、リスク許容度などを知らない。また、最新の税制や利率の変更を反映していないこともある。

 中には確定申告の情報をChatGPTに入力して簡単に済ませようとする人もいるが、プロの会計士なら大きな控除を見つけたり、多額のミスを回避できたりする。お金や期限、税務署からのペナルティが関わる問題は、専門家に相談するのが安全だ。

 また、AIに入力した情報、収入や銀行口座情報などが学習データとして使われる可能性も覚えておこう。

5. 機密情報や規制対象データの取り扱い

 私はテック系の記者として、私は毎日のように情報解禁前のプレスリリースを受け取るが、それらをChatGPTで要約したり解説を求めたりしたことは一度もない。そんなことをすれば情報が自分の管理下を離れ、秘密保持契約(NDA)の枠を超えた第三者のサーバーに流れてしまうからだ。

 このリスクは顧客との契約書や医療カルテ、GDPRやHIPAAの対象となる情報、営業秘密にも同様にあてはまる。確定申告書、出生証明書、運転免許証、パスポートの情報も同じだ。一度ChatGPTに入力したら、どこに保管され、誰が見るのか、将来的に学習データとして利用されるかどうかも保証できない。また、ChatGPTもハッキングやデータ漏洩のリスクと無縁ではない。もし公共のSlackチャンネルに投稿できない内容なら、絶対にChatGPTにも入力すべきではない。

6. 違法行為

 言うまでもない。絶対にやめておこう。

7. 宿題やテストの不正利用

 近頃では「Turnitin」のようなAI検知ツールが急速に精度を高めており、教授陣もAI独特の不自然な文章を即座に見抜くようになった。停学や退学、資格の取り消しなどの深刻な処分もあり得る。ChatGPTはあくまで学習のパートナーとして使うべきだ。課題をAIに丸投げすると、本来の「学ぶチャンス」を失うのは、あなた自身なのだから。

8. 情報のリアルタイム収集

 OpenAIが2024年末に導入した「ChatGPT Search」は2025年2月に一般公開され、リアルタイムでニュース記事や株価、ガソリン価格、スポーツの試合結果などを引っ張ってくることが可能になった。しかも情報源へのリンク付きで裏付け確認も簡単だ。

 ただし、ChatGPTが常に情報を最新に保ってくれるわけではない。情報を更新するには毎回新たにプロンプトを打ち込む必要がある。秒単位のスピードが求められる場面では、ライブ速報、公式発表、ニュースサイトや通知サービスを利用した方が確実だろう。

9. ギャンブルや勝敗予測

 実を言うと、私(米国在住)はChatGPTを使ってNCAA(全米大学体育協会)男子バスケの三連勝パーレー(3試合連続で勝敗を予想し、すべて的中させると配当が大きくなる)に成功したことがある。だが、それを他人に勧める気は全くない。選手の統計やケガ情報、勝敗記録など、ChatGPTが平気で間違った情報を「堂々と」出してくる場面を何度も目撃したからだ。

 実際に勝てたのは、ChatGPTの答えをそのまま信じたからではない。リアルタイムのオッズを自分でひとつずつダブルチェックし、最終的には運が味方しただけだ。ChatGPTは未来の試合結果を知ることはない。ギャンブルで勝ちたいなら、最終的には自分の勘と責任で挑むしかない。

10. 遺言書や法的効力を持つ契約書の作成

 これまで何度も言っているように、基本的な概念を分かりやすく説明するのはChatGPTが最も得意とするところだ。遺言や契約書など、法的な効力を持つ書類の作成をAIに任せるのは危険だ。法律や手続きは細かく決まっており、記載ミスや署名の不備ひとつで無効になることもある。ChatGPTで仕組みを調べるのは構わないが、実際の書類作成は必ず専門家に相談すべきだ。AIには弁護士に尋ねるべき質問リストを作らせる程度にとどめておこう。

11. 芸術作品の制作

 これはあくまで私個人の考え方であって、普遍的ではないが、私はAIに「アート」を作らせるのには反対だ。もちろん、私はAIを否定しているわけではない。自分自身も新しいアイデア出しや、見出しの工夫をするときにChatGPTを活用している。ただ、それはあくまでも「手助け」であって、自分の創造性を代替するものではない。


 どうか、ChatGPTが生成したものを自分の作品だと言い張って人前に出すのはやめてほしい。それは美しくないし、どこか不快に感じてしまうのだ。

Amazonで現在開催中のセールを見る

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]