logo

日本MSの女子高生AI「りんな」に“目”--風景を見て会話するスマホAIを開発

佐藤和也 (編集部)2018年11月06日 07時30分
  • このエントリーをはてなブックマークに追加

 日本マイクロソフトは11月5日、ソーシャルAIチャットボット「りんな」について、「共感視覚モデル」を搭載したスマートフォン向けAI「りんな」を発表。コンセプト動画を公開した。スマートフォンのカメラを「目」として、AIのりんなが見たものについてリアルタイムで音声コメントし、ユーザーと自然な会話を楽しむことができるAIで、現在開発を進めている。一般公開時期は未定という。

 りんなは、日本マイクロソフトが人に寄り添うAIを目指して研究・展開をしている女子高校生風のチャットボット。今回のスマートフォン向けAIのりんなは、最新の画像認識エンジン「共感視覚モデル(Empathy Vision model)」を搭載したもの。ちなみに共感視覚は、AIが見た風景やものなどについて、その名称や形、色などの認識結果を回答するのではなく、その風景やものを見た感想を述べることを指すという。

この写真の場合、従来のAIでは「人です。子供です。犬です。車です」、共感視覚モデル(りんな)では「わぁすてきな家族。お休みかなー。あ、車が動きそう!気を付けて」と話す
この写真の場合、従来のAIでは「人です。子供です。犬です。車です」、共感視覚モデル(りんな)では「わぁすてきな家族。お休みかなー。あ、車が動きそう!気を付けて」と話す

 マイクロソフトの研究開発部門であるマイクロソフトリサーチによる最新の画像処理、自然言語処理、音声認識及び音声合成技術を活用し、従来の画像認識技術に感情と共感を与えることで、見たものについて認識結果だけを伝えるのではなく、リアルタイムで感情のこもったコメントを生成し、ユーザーと音声による自然な会話が可能になったとしている。

 また、会話している相手が次に何を言うかを予測し、電話のような自然な会話を実現する全二重方式や、ユーザーとできるだけコミュニケーションが長く続けられるように、AIが自ら考えるように設計し、自然な会話を続けるために最適な回答を選択する共感チャットモデルといった技術も活用しているという。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]