OpenAIは米国時間8月4日、「ChatGPT」との会話の中で休憩を促す機能を導入すると発表した。ChatGPTと長時間やり取りを続けると、ソーシャルメディアと同様に依存的な行動につながるおそれがあるため、一定時間が経過すると休憩を促すポップアップが表示される。
「私たちは利用時間やクリック数で成功を測るのではなく、皆さんが目的を果たしてサービスを離れているかを重視している」と同社は発表の中で述べた。
この変更が実際に効果をもたらすかは未知数だ。スタンフォード大学医学部の精神科医で教授のAnna Lembke博士は、こうした機能が強迫的な行動を抑制するかという点について、ソーシャルメディアやIT企業はデータを公開していないと指摘する。「臨床の経験から言えば、こうした軽い促しは依存度が軽い人には有効かもしれないが、深刻な依存状態の人にはあまり役立たない」と同氏は語った。
OpenAIがChatGPTを改良する背景には、AIの利用がメンタルヘルスに与える影響への注目が高まっていることがある。多くの人がAIツールやAIキャラクターをセラピスト代わりに用い、その助言を医療の専門家から受けたもののように信用している。しかし、AIは誤った有害な回答を返すことがあるため、リスクは大きい。
プライバシーも問題だ。人間のセラピストは会話の秘密を守る義務を負うが、OpenAIは訴訟でその情報を守る責務や権利を有していないと、最高経営責任者(CEO)のSam Altman氏は最近認めている。
その他の目立たない変更点として、OpenAIはChatGPTのモデルを調整し、深刻な問題に直面しているユーザーに、より適切に対応できるようにする。同社によれば、ユーザーが妄想など問題のある兆候を示しているのに、認識せず適切に応答できなかったケースがあるという。「今後もモデルの改良を進めるとともに、精神的・感情的な苦痛の兆候をうまく検知し、ChatGPTが適切に対応して、必要に応じてエビデンスに基づくリソースを提示できるようにするためのツールを開発していく」(同社)
また、ChatGPTが人生の大きな決断に関する助言を与えるような場合にも、より慎重に回答できるようにするという。OpenAIは「恋人と別れるべきか」といった質問に対し、単に答えを示すのではなく、ユーザー自身が考えて答えを出せるよう、問い掛けなどをして導くと説明している。この変更は近く適用される予定だ。
ChatGPTの休憩を促す機能によって生成AIの利用時間が短くなるは不透明だ。作業中に休憩が必要かと聞かれるのは煩わしいと思う人もいれば、外に出て気分転換するきっかけが欲しい人もいるだろう。
Lembke氏は、チャットボットなどを利用する際は時間管理を徹底すべきだと述べる。ソーシャルメディアなど他の依存性の高いサービスでも同様だ。利用を控えめにする日や、全く使わない日をあらかじめ決めておくとよい。
「利用時間を意図的に制限し、具体的な上限を設けるべきだ」と同氏は語る。「プラットフォームで何をするか具体的に書き出し、その用途に留め、寄り道して深みにはまらないようにする必要がある」
OpenAIの発表この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ドコモビジネス×海外発スタートアップ
共創で生まれた“使える”人流解析とは
Copilot + PCならではのAI機能にくわえ
HP独自のAI機能がPCに変革をもたらす