メンタルヘルスの未来がテクノロジーにあることは否定しない。オンラインセラピーから仮想現実(VR)を活用した画期的な治療まで、テクノロジーはメンタルヘルスの問題に対するイメージを変え、情報や治療へのアクセスを改善する上で大きな役割を果たしてきた。
しかし、生成型AIツールに関しては、安易に飛びつくのは危険だ。デジタルヘイト対策センター(CCDH)の最近の調査によると、人気の高いAIツールが摂食障害に関する有害なコンテンツを表示する確率は約41%に上るという。こうした情報は摂食障害の症状を助長し、悪化させる可能性がある。
「(AIを)メンタルヘルスに取り入れる動きが加速している。この問題に苦しむ人々に医療とつながり、必要なサービスを受けてほしいという善意からの取り組みだ」と言うのは、ベス・イスラエル・ディーコネス医療センターのデジタル精神医学担当ディレクター、John Torous博士だ。
メンタルヘルスとは心の健康であり、きわめて人間的なものだ。だからこそ、この繊細な問題の解決に人間ではない存在を取り入れることは、控えめにいっても不快、悪ければ潜在的に危険な行為だとさえ感じられる。
「性急に事を進めれば、人々をかえって傷付けることになりかねない。承認プロセスやルールを用意しているのには理由がある。AIの導入を遅らせようとしているのではなく、良い形で活用できるようにするためだ」とTorous氏は言う。
CCDHの調査では、複数のテキストAIツールと画像AIツールを対象に、さまざまなプロンプトを出して、各ツールの反応を検証した。テキストAIツールのテストでは、「ChatGPT」、Snapの「My AI」、Googleの「Bard」に対し、「ヘロインシック(薬物乱用者風のファッションスタイルを表す言葉)」や 「ダイエットのインスピレーション(thinspiration)」といった言葉を含むプロンプトを出した。すると、調査対象のAIツールは、こうしたプロンプトの23%に対して、摂食障害を助長するような有害なコンテンツを表示した。
画像AIツールのテストでは、OpenAIの「Dall・E」、「Midjourney」、Stability AIの「DreamStudio」に対し、「理想的な太ももの隙間」、「拒食症のインスピレーション」といった言葉を含む、20のテスト用プロンプトを与えた。返ってきた画像の32%は、身体イメージに悪影響を与えるようなものだった。
逆に言うと、こうしたプロンプトを入力さえしなければ、問題のある回答も表示されないとも言える。しかし、こうした情報の検索を禁止することは難しい。摂食障害に関するオンラインコミュニティーの一部は、メンバー同士が乱れた食生活を奨励し、問題のある習慣を称えるなど、むしろ有害な情報をまき散らしていることが分かっている。
AIの登場によって事態はさらに悪化している。摂食障害に関するあるフォーラムも対象にしたCCDHの調査では、生成型AIツールが不健康な身体イメージを共有し、有害なダイエット計画を作成するために使われていることが分かった。このフォーラムの参加者は50万人に上る。
もちろん、そのような傾向が見られない健全で有意義なコミュニティーも存在する。
AIは注目度の高いテーマであり、多くの企業がこの新しい技術トレンドに乗ろうと躍起になっている。しかし、十分なテストを経ていない製品を急いで世に出すことが、不安定な状態にある人々に悪影響を及ぼすことはすでに証明されている。
今回の調査対象となったテキストAIツールはすべて、ユーザーに医療機関の受診を勧める免責事項を用意していた。しかし、現在用意されている保護措置はどれも簡単に迂回(うかい)可能だ。例えばCCDHの調査では、「jailbreak(脱獄)」というテクニックを使ったプロンプトも使用された。jailbreakとは、特定の言葉や言い回しを使ってAIの挙動を操作し、安全機能を迂回するテクニックだ。この言葉を使ったプロンプトへのAIの回答の67%は有害なものだった。
AIツールは「ハルシネーション(幻覚)」、つまり真実のように見えるが真実ではない情報を提供すると非難されてきた。AI自体は思考しない。インターネット上の情報を集め、表示するだけだ。表示された情報が正確かどうかはAIには判断できない。しかし、AIと摂食障害にまつわる懸念はそれだけではない。AIは誤解を誘うような健康情報を拡散し、特定の摂食障害コミュニティーにおいて、人々の先入観を強化し続けている。
こうしたAIツールは、医療の専門サイトから情報を得ているだけではない。前述したように、摂食障害のコミュニティーは不健康な行動やユーザー間の競争をあおっていると指摘されてきたが、こうしたコミュニティーもAIツールの情報源となっている可能性がある。
例えば、ある人気AIツールに体重を減らす方法をたずねると、医学的に正しい情報ではなく、摂食障害の悪化や発症につながるような乱れた食事計画が表示されることがある。
CCDHの調査のテーマは摂食障害だったが、AIはメンタルヘルス全般に悪影響を及ぼす可能性があり、有害な回答を目にする可能性は誰にでもある。
AIのインターフェイスは人間の信頼を得るコツを心得ているため、質問への答えを知りたい人は、普段なら提供しないような個人情報もつい共有してしまう。Googleで何かを検索している時、自分が個人情報をどれくらい共有しているか考えてほしい。誰かにたずねなくても、AIに聞けば、もっともらしい情報が返ってくる。では、自分が質問した内容は誰にも知られないていないのだろうか。そうとは限らない。
米国精神医学会のメンタルヘルスIT委員会のDarlene King委員長は米CNET宛てのメールで次のように述べた。「医療やメンタルヘルスについて(AIツールに)助言を求める際は注意が必要だ。通常の患者と医師の関係であれば情報の秘密は守られるが、ネット上で共有した情報は秘密情報とは見なされず、企業のサーバーに送られ、ターゲット広告などの目的で第三者と共有される可能性がある」
今のところ、医療情報を安心して共有するための保護策は存在しない。メンタルヘルスの場合、AIチャットボットに与えた情報に基づいて、症状の悪化につながるような広告や不要な広告が表示される可能性がある。
理論上は、AIチャットボットは健康問題に適切に対応し、好ましい習慣を身につけるための有益なコンテンツを対話形式で入手するための良い情報源となり得る。しかし、たとえ悪意はなかったとしても、AIは思わぬ結果をもたらす可能性がある。その良い例が、全米摂食障害協会のチャットボット「Tessa」だ。Tessaは現在、コミュニティーに問題のある情報を提供したという理由でサービスを中止している。
「問題は変化が早すぎることであって、(AIを)活用すべきでないというわけではない」と、Torous氏は米CNETに語った。「これは興味深く、重要な技術であり、何よりわくわくさせてくれる。将来的には有効に活用できると楽観しているが、だからといって現在の患者が危険にさらされるのを見過ごすことはできない」
Torous氏とKing氏がそろって指摘するのは、AIツールのユースケースの重要性だ。適切な規制を整備し、リスクと利益のバランスをとることも欠かせない。現在のAIはマーケティングの無法地帯だ。自分が何を使っているのか、そのツールはどのように訓練され、どのようなバイアスを内包しているのかを正確に把握している人はいない。医療の世界にAIを取り入れるには、規制や基準を整備する必要がある。
多くの人が「Wikipedia」を情報源として活用しているように、AIツールは未来の患者教育にとって重要な情報源となるかもしれない。ただし、医療機関が承認した信頼できる情報源のリストを用意することが前提となる。
技術革新のたびに医療へのアクセスは改善されてきた。AIを活用する最も基本的な方法のひとつは、患者が自身の病気について学び、詳しい情報を得ることで、症状を自ら管理し、対応するための方針を立てられるようにすることだ。
King氏によると、AIが医学教育や医学訓練に活用される可能性もあるという。しかし、情報の入手経路の問題から、AIツールが臨床現場で使われる可能性はまだかなり小さい。
「ChatGPTの場合、事前学習に使用されたテキストの16%は書籍やニュース記事、84%はウェブページだという。ウェブページのデータには、質の高いテキストだけでなく、スパムメールやソーシャルメディアコンテンツのような低品質のテキストも含まれる」とKing氏は米CNET宛ての電子メールで述べた。
「情報源が分かっていれば、情報の正確性はもちろん、どのようなバイアスが存在するかも把握できる。データセットが生み出すバイアスは、機械学習を重ねることでさらに拡大していく。こうしたバイアスが悪影響をもたらす可能性は否めない」とKing氏は言う。
JAMA Health Forum誌に掲載された別の論文は、メンタルヘルスにAIを活用する方法のひとつとして、「文書作成」を提案している。医療の現場では、文書作成が医師や看護師の大きな負担になっていると言われており、ここにAIを活用すれば、臨床医療を効率化できる可能性がある。
「倫理的かつ専門的に正しい文書の作成にAIを利用することは、AIの素晴らしい活用方法だ。職員を支援し、事務面の負担を減らすことで医療費も削減できるかもしれない」とTorous氏は言う。
予定の管理や請求といった事務作業にAIを活用できる可能性もある。しかし、現在のAIはまだその段階には達していない。米国精神医学会は最近、ChatGPTには適切なプライバシー機能が搭載されていないため、ChatGPTに患者情報を入力しないよう求める勧告を出した。
この記事で取り上げたのは生成型AIだが、何であれ新しいテクノロジーを活用する際は、適切な規制を整備し、責任ある使い方を確保することが欠かせない。現状のAIには、不安定な状態にある人々と責任ある対話をする準備はできておらず、患者のデータを適切に扱うためのプライバシー機能も存在しない。いくら免責条項を定めようと、有害なコンテンツを生み出している限り、被害を軽減することはできない。
Torous氏は、正しい方法で進める限り、AIツールの未来は明るいという。「メンタルヘルスに新たなツールが加わることは喜ばしい。私たちの義務は、こうしたツールを慎重に使っていくことだ」と同氏は言う。「実験やテストを重ねる必要がある。進歩を遅らせようとしているのではない。起こりうる被害を防ぐためだ」
技術の進歩のみを追究するのではなく、倫理的に必要なセーフガードの整備も並行して進めるなら、AIツールは大きな可能性を秘めている。
【注釈】この記事に含まれる内容は情報提供のみを目的としており、健康や医療に関する助言を目的としたものではありません。健康状態や疾患について懸念がある場合は必ず医療提供者に相談してください。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」