人工知能(AI)はいつか人間の感情を私たちよりもうまく伝えられるようになるかもしれない。コロラド大学とデューク大学の研究者によって開発されたニューラルネットワークモデル「EmoNet」は、画像を11種類の感情カテゴリーに正確に分類することに成功した。
この研究に関わった研究者の1人であるPhilip Kragel氏によると、ニューラルネットワークは、一連のフィルターを学習することによって、入力信号を興味深い出力にマッピングすることを学習するコンピューターモデルだという。例えば、バナナを検出するように訓練されたネットワークは、形や色など、バナナに固有の特徴を学習する。
EmoNetの開発に使われたデータベースには、不安や関心、悲しみ、驚きなど、27種類の感情カテゴリーを表す2185本の動画が含まれていた。このモデルは「切望」「性的欲求」「恐怖」に関連する画像を信頼性の高い間隔で区別できたが、より抽象的な感情とみなされる「混乱」「畏怖」「驚き」の検出はそれほど得意ではなかった。EmoNetは、画像内に存在する物体や顔だけでなく、色や空間パワースペクトルも利用して、感情を分類した。この研究成果は先週、Science Advances誌で発表された。
この研究は、これまで参加者による感情の自己申告に依存していた研究者に価値を提供するかもしれない。主観的な反応だけに頼るのではなく、科学者はAIを使用して視覚野内のパターンに集中し、被験者の感情をより正確に理解できるようになった。パターンの違いが、感情の種類を「解読」する鍵になる。
この研究に関わった研究者の1人であるTor Wagner氏は、「感情の測定ということに関して言えば、未だに、人々に今の感情を尋ねる以外の方法がないことがほとんどだ。今回の研究成果により、われわれは感情に関連する脳のプロセスの直接測定に一歩近づいた」と述べた。
感情を測定する新しい方法に加えて、研究チームは、AIがメンタルヘルスに関するレッテル貼りの排除にも寄与するかもしれないとした。
「『不安』や『憂鬱』といった主観的なレッテルから脳のプロセスへと移行することで、治療学や治療法、介入の新たな達成目標が生まれるかもしれない」(Kragel氏)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス