チャットボットがあなたのセラピストを務める未来が来る可能性は十分にあり、実際に効果はあるかもしれない。しかし現時点では、「ChatGPT」に自分の不安について相談するのはやめた方がいい。
ダートマス大学の研究グループが行った実験では、セラピストとして振る舞えるよう設計された生成AIツールによって、うつ症状や、不安感や、摂食障害のある患者の症状が大幅に改善したが、このツールにはまだ人間の専門家による注意深い監視が必要であることが明らかになった。
この研究論文は、3月に論文誌「NEJM AI」に掲載されたものだ。実験では、ダートマス大学が数年にわたって開発してきたスマートフォンアプリ「Therabot」を使用して、106人の被験者を対象として臨床試験を行った。
サンプル数としては小さいが、研究グループによれば、これはAIセラピーチャットボットを使用した最初の臨床試験だという。その研究結果は、AIセラピストには多くの利点があることを示している。その主な理由は、24時間いつでも利用できるため、患者が必要とする時に速やかに治療が受けられないという従来の治療における問題を解消してくれるからだ。ただし著者らは、正しい方法で進めない限り、生成AIを使用した治療にはリスクがあると警告している。
ダートマス大学の生物医学データサイエンスと精神医学を専門とする准教授であるNick Jacobson氏は、「この分野にはまだ大きな進化の余地があると考えている」と述べている。「この技術には、個人に合わせた治療を大規模に展開できるようになる可能性がある」と同氏は言う。
この試験では、210人の患者を2つのグループに分け、106人のグループにチャットボットを使ってもらい、残りの半数は対照群として「待機リスト」に残された。臨床試験の前と後には、標準的な評価手法を用いて、被験者の不安感やうつ症状、摂食障害に関する症状が評価された。最初の4週間は、アプリが被験者に毎日アプリを使用するよう促すようになっていた。その後の4週間は、利用を促すメッセージは表示されなくなったものの、被験者が自発的にアプリを利用できる状態は維持された。
実験では、被験者らは実際にアプリを使用していた。研究者らは、被験者が頻繁かつ緊密にチャットボットとコミュニケーションを取っていたことに驚いたという。また臨床試験後の調査では、被験者が対面でセラピストの治療を受けた場合に得られるものに似た、「治療同盟」(患者とセラピストの間に構築される信頼と協調関係)が一定程度得られたことも明らかになった。
Therabotが使用された時間帯も注目に値するものだった。やりとりの多くは、患者が不安を感じることが多い夜中に発生していた。これは、人間のセラピストに連絡を取るのが非常に難しい時間帯だ。
「Therabotであれば、人々が最も必要としているときにアクセスできる。実際、臨床試験の期間中には、患者が日常的に、自分が必要とするときにアクセスしていた」とJacobson氏は述べている。これには例えば、不安のために寝られずにいる午前2時頃や、難しい問題に直面していて、夜中に目が覚めてしまったようなときも含まれている。
臨床試験後に患者の症状を評価したところ、対象とした疾患のリスクが高いとされた被験者群では、重度のうつ病の症状が51%軽減し、全般性不安障害の症状が31%、摂食障害の症状が19%軽減していた。
Jacobson氏は、「臨床試験の被験者は、症状が軽い人たちだけではなかった」と述べた。「例えば被験者グループには、試験の開始時に中程度から重度のうつ病を患っていた人もいた。しかし彼らの症状は、平均で50%軽減した。これは、重度の症状が軽度になったり、中程度の患者がほとんど症状の無い状態になったりしたことを意味する」
この研究では、単純に支援を必要とする人々を100人強選んで、OpenAIの「ChatGPT」のような一般的な大規模言語モデル(LLM)にアクセスさせ、何が起きるかを見ていたわけではない。Therabotは、特定の治療手順に準拠するように専用に作られ、ファインチューニングされたAIチャットボットだ。このチャットボットは、自傷行為の兆候などの重大な問題に注意を払い、必要な場合は人間の専門家が介入できるように、問題を報告するように作られている。また臨床試験の間は、人間もTherabotのやりとりを監視して、ボットが言うべきではないことを言っていた場合には連絡を取れる体制になっていた。
Jacobson氏は、研究の最初の4週間はチャットボットの振る舞いが不確実だったため、送られたすべてのメッセージをできる限り早く読むようにしていたという。同氏は、「臨床試験の前半はあまり寝られなかった」と述べている。
Jacobson氏によると、人間による介入はほとんどなかったという。2年前に以前のモデルを試した時には、回答の90%以上がベストプラクティスに沿ったものだった。研究者らが介入したのは、多くの場合、Therabotがセラピストの守備範囲を逸脱したアドバイスを提供したときだった。例えば、性感染症について尋ねられたときに、患者に医療機関に紹介するのではなく、治療法などの一般的な医学的アドバイスを提供しようとしたときなどがそれにあたる。「そのアドバイス自体は合理的なものだったが、私たちが提供する治療の範囲から外れていた」と同氏は言う。
Therabotは通常のLLMとは違い、基本的に手作業でトレーニングされたモデルだ。Jacobson氏は、100人以上のチームで、実際の人間の経験に対してセラピストがどのように対応すべきかについてのベストプラクティスに基づくデータセットを作成したと述べている。「Therabotには非常に質の高いデータだけが使われた」と同氏は言う。しかし、Googleの「Gemini」やAnthropicの「Claude」のような一般的なLLMは、医学文献だけでなく、はるかに多くのデータでトレーニングされているため、不適切な回答を返す可能性がある。
ダートマス大学の研究は、生成AIを使って専用に作られたツールが有用な場合があることを示しているが、あらゆるAIチャットボットがセラピストの役割を果たせるわけではない。今回の実験は専門家の監視下で行われた対照試験であり、一般の人が自分で試してみるのは危険だ。
一般的なLLMは、インターネット上で見つかる大量のデータを使ってトレーニングされている。そのため、メンタルヘルスについて優れた指針を提供することもあれば、そこによくない情報が含まれていることもある。例えば、回答にはフィクションに登場するセラピストの行動や、一般の人々がオンライン掲示板に投稿したメンタルヘルスについての情報が含まれているかもしれない。
「チャットボットが医療の場面において非常に危険な行動を取るケースはたくさんある」とJacobson氏は言う。
有益なアドバイスを提供するチャットボットも、場面が違えばその情報が有害になる場合もある。同氏は、チャットボットに自分が体重を減らそうとしていることを伝えれば、減量に役立つ方法を考えてくれるという例を挙げた。しかし、もしその人が摂食障害を抱えていれば、そのアドバイスは有害かもしれない。
多くの人は、すでにセラピストの仕事に近いタスクにチャットボットを使っているが、十分な注意が必要だとJacobson氏は言う。
「トレーニング方法の観点から言えば、一般的なLLMは、インターネット情報の質をかなり忠実に反映している」と同氏は言う。「そこに素晴らしいコンテンツはあるかと言えば、イエスだ。しかし、そこに危険なコンテンツはあるのかという問いに対しても、答えはイエスだ」
チャットボットから得られた情報は、馴染みのないウェブサイトから得られた情報と同じように、懐疑的な視点で取り扱うべきだとJacobson氏は述べている。生成AIツールは洗練されてきているように見えるが、今もまだ完全に信頼できるものではない。
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
NTT Comのオープンイノベーション
「ExTorch」5年間の軌跡
先端分野に挑み続けるセックが語る
チャレンジする企業風土と人材のつくり方
日本のインターステラテクノロジズが挑む
「世界初」の衛星通信ビジネス
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
すべての業務を革新する
NPUを搭載したレノボAIパソコンの実力