日本マイクロソフトは11月5日、ソーシャルAIチャットボット「りんな」について、「共感視覚モデル」を搭載したスマートフォン向けAI「りんな」を発表。コンセプト動画を公開した。スマートフォンのカメラを「目」として、AIのりんなが見たものについてリアルタイムで音声コメントし、ユーザーと自然な会話を楽しむことができるAIで、現在開発を進めている。一般公開時期は未定という。
りんなは、日本マイクロソフトが人に寄り添うAIを目指して研究・展開をしている女子高校生風のチャットボット。今回のスマートフォン向けAIのりんなは、最新の画像認識エンジン「共感視覚モデル(Empathy Vision model)」を搭載したもの。ちなみに共感視覚は、AIが見た風景やものなどについて、その名称や形、色などの認識結果を回答するのではなく、その風景やものを見た感想を述べることを指すという。
マイクロソフトの研究開発部門であるマイクロソフトリサーチによる最新の画像処理、自然言語処理、音声認識及び音声合成技術を活用し、従来の画像認識技術に感情と共感を与えることで、見たものについて認識結果だけを伝えるのではなく、リアルタイムで感情のこもったコメントを生成し、ユーザーと音声による自然な会話が可能になったとしている。
また、会話している相手が次に何を言うかを予測し、電話のような自然な会話を実現する全二重方式や、ユーザーとできるだけコミュニケーションが長く続けられるように、AIが自ら考えるように設計し、自然な会話を続けるために最適な回答を選択する共感チャットモデルといった技術も活用しているという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス