会話から感情を読み取るAI--ウェアラブルな「ソーシャルコーチ」の可能性 - (page 2)

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部2017年02月07日 07時00分

 被験者はSimbandを装着した。これで動き、心拍数、血圧、血流、皮膚温などを計測するのだ。音声データとそれをテキスト化したものも記録し、話者の声色、声の高さ、力強さ、語彙を解析した。

 研究システムは、長い間(ま)と単調な声色を悲しい話題と関連付け、力強く、さまざまなパターンの音声を楽しい話題と関連付けた。落ち着きのないしぐさや心臓血管活動の増加は悲しい話と関連付けた。おおむねこのシステムは会話の5秒ごとのブロックの雰囲気を分類でき、その精度は平均して18%以上だった。

 この研究は、目まぐるしく変化するトレンドに沿うものだ。感情分析機能を搭載するデバイスは増加しており、メーカーコミュニティーはRaspberry Piの基板ですぐに利用できるようになるだろう。また、ウェアラブル市場は一部で期待されていたようにはまだ活性化していないが、成長の余地があるという楽観論が依然として優勢だ。

 MITの研究は、2つのトレンドを実に上手く組み合わせたものといえる。Ghassemi氏は、この実験の独特な点は、身体と音声の膨大なデータを収集しつつも、被験者が自然な会話を続けられるところだと記した。同じような他の研究では、被験者に動画を見せて感情を追跡したり、特定の感情を態度で表現してもらったりする方法に頼ってきた。

 また、プライバシーの懸念から、このシステムは被験者のデバイス上で稼働するように開発された。

 研究チームは現在、研究を拡大し、「Apple Watch」のような市販デバイスを使う可能性を検討している。

 Alhani氏は次のように語った。「研究の次のステップは、アルゴリズムに細かい感情を分類させることだ。会話をただポジティブかネガティブかに分けるのではなく、会話の流れの中の退屈、緊張、興奮などを見分けられるようにする。人の感情の波を把握できる技術の開発には、われわれのコミュニケーションを劇的に改善する可能性がある」

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]