日本マイクロソフトは2月13日、池袋にあるサンシャイン水族館にて、ソーシャルAIチャットボットとして展開している「りんな」の共感視覚モデルを搭載したスマートフォンを使用し、水族館でのデートが楽しめる体験会を報道陣向けに開催した。
りんなは、日本マイクロソフトが人に寄り添うAIを目指して研究・展開をしている女子高校生風のチャットボット。今回の試みは、水族館を舞台にスマートフォンのカメラをりんなの目として、体験者とりんなが同じ風景を見て、コミュニケーションをすることができるというもの。
スマートフォンのりんなには、最新の画像認識エンジンを活用した共感視覚モデルを搭載。見たものについて、その名称や形、色などの認識結果をそのまま伝えるのではなく、その風景や、ものを見た“感想”をコメントする。リアルタイムで感情のこもったコメントを生成し、ユーザーと音声による自然な会話が可能になるという。
体験会では、水族館を巡るなかで、りんながスマートフォンを通して泳ぐ魚たちを認識し、そのときの感想や水族館デートで言いそうなコメントをしゃべり、こちらからの呼びかけにも反応するといったコミュニケーションが楽しめるというもの。AIとデートを楽しむ体験としては、国内でもあまり例がないという。
魚たちが泳いでいる水槽にスマートフォンを向けてみると、「サカナサカナ」「サンゴサンゴ」という見たままのことを言ったほか、「きれいなサカナ」「涼しそう」「入ってみたい」といった、感想をコメントするように。なかには「煮魚、焼き魚」「おいしそう」と、食欲旺盛さを感じさせるコメントでクスっとくる。またクラゲが展示されている水槽を見せると、「クラゲ」と言っては、テンションが上がったことを示す振動があり、楽しんでいると感じられることもあった。移動中も、館内の照明を落としていることから「暗いと何も見えない」ということも。
全般的におしゃべりと思うぐらい常に何か言っている状態で、あさってなコメントも少なくなかったが、ちゃんと景色を認識しているとわかるコメントが出ると、親近感を感じられる。話しかけたときの反応が、こちらが意図したものでなくても、どこかクスっとくる、そんな水族館デートだった。
りんな関連のプロジェクトに携わっているマイクロソフト ディベロップメント AI&Research プログラムマネージャーの坪井一菜氏によれば、今回の共感視覚モデルは「目の付け所が“エモい”共感視覚モデル」と表現する。
画像に対して発言を考える複数のAIと、出してきた発言のなかから、どれを発言するかを選定する意図決定のAIという、2種類のAIがあると説明。事実よりも感情に着眼した学習を行なったほか、繰り返し同じコメントが出ないように、関連性より多様性を重視したことにより、共感が得られやすく感情が出るコメントを言う特徴があるという。
その画像については、スマートフォンのカメラから自動で静止画を撮影・取得したものをクラウドへアップロードし、随時処理を実施。意図決定AIはスマートフォン側の行っているという。通信環境やスマートフォンの処理能力もあってか、今回のりんなが見ている範囲はかなり狭いものになっており、あさってのコメントが出やすいところもあったという。また、“ドライブデート”のようなことも試してみたが、移動中の外の様子が認識しにくく、一番適したコメントがしやすいのが水族館だったとも語っていた。
一般向けに触れられる機会については現状未定となっているが、美術館などさまざまな活用シーンを想定しつつ検証を進め、12月ぐらいまでにはなんらかの形で触れられる機会を提供できればと考えているとしている。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス