logo

AIにも「心のケア」が必要に--米大学が心理療法の応用を提案

MARK SERRELS (CNET News) 翻訳校正: 佐藤卓 高橋朋子 (ガリレオ)2018年07月03日 12時18分
  • このエントリーをはてなブックマークに追加

 先頃、マサチューセッツ工科大学(MIT)の研究チームが、サイコパス化させた人工知能(AI)「Norman」を作り出したことが話題になった。この様子だと近い将来、AIが精神障害を疑われ、人間の患者と同じような「治療」が必要になる時代が到来するかもしれない。

 このような見解を示すのは、カンザス州立大学の研究チームだ。同チームは、AIがますます複雑になるにつれて、「複雑さのもたらす困難」、すなわち精神障害の犠牲になるケースが起こりうると考えている。そうなれば、心的外傷後ストレス障害(PTSD)、うつ病、精神病などの患者の治療や支援に関して長年にわたり蓄積されたノウハウが、AIの治療にも役立つ可能性があるという。

提供:Warner Bros.
提供:Warner Bros.

 例えば、認知行動療法は、人間の思考と行動のパターンを体系的に変化させようと試みるアプローチだ。将来、これに似た論理的な手法をAIの問題行動を変化させるのに利用できるのではないだろうか。そこで研究チームは、AIに対しても同じようなフレームワークを適用して、問題のある行動を特定し、障害を診断し、問題を修正するための治療体系を見出すことを検討すべきではないかと主張している。

 具体的な治療法について、研究チームは出発点として2つの案を提示している。1つ目は、「修正トレーニング」だ。これは侵襲性の低い治療法で、認知行動療法を参考にしている。2つ目は、人間の薬物療法に近いもので、AIの行動を根本的に変化させるために、外的な手段を用いて報酬信号を操作する。「AIエージェントに障害が見つかった場合、単純にそのAIの利用を停止したり、AIをリセットしたりといったことが常に実行できるとは限らない」とチームは論文の中で述べている。

 つまり、AIのスイッチを切って入れ直せば済むという話ではないのだ。

 この論文は議論の第一歩に過ぎないが、魅力的なアイデアだ。AIを取り巻く懸念について考えれば、興味をそそるテーマだといえる。AIを革張りのソファに座らせて、フロイト式の精神分析を施す未来は想像しがたいが、AIがこの先間違いなく直面する大きな問題に対処するときに、人間に有効なテクニックが役立つ日が来るかもしれない。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]