その対極にあるのは、人間の周囲で自律的に動くのではなく、人間と連動することによってのみ動くロボットだ。例えば、サムスンのウェアラブルロボット「GEM」は、自力での移動が困難な人をバイオニック技術で補助するように設計されている。このような外骨格ロボットは、足首や膝、腰の動きを支援することによって、文字通り人間の肉体的な労働の負担を軽減する。
しかし、ロボットはウェアラブルなものでなくても、人間の接触に反応することができる。LOVOT(孤独感を和らげるGROOVE Xのコンパニオンロボット)のようなドロイドを見ると、ロボットがどのように人間の行動に物理的に反応するのかが分かってくる。LOVOTは内蔵のタッチセンサを通して、自分が持ち上げられていること、くすぐられていること、抱きしめられていることなどを検知し、それぞれ、車輪を内側に収納する、声を出して笑う、熱を発して眠るといった反応をする。
ソフトバンクの「Pepper」と再会して分かったことがある。筆者が何者なのかをロボットが自動的に認識し理解してくれたら、ロボットと人間のやり取りを全く新しいレベルに引き上げられる、ということだ。
この特定のデモでは、筆者は「iPad」を使ってオンラインショッピングし、購入した商品を店頭で受け取ることになっていた。決済プロセスを進めていると、iPadのカメラを使って自分の顔写真を送信するよう求められた。
その結果、筆者がベネチアンホテルの一角に設営されたソフトバンクの仮設店舗を訪れると、Pepperは名前を呼んで出迎えてくれた。それから注文内容を呼び出し、商品を受け取りたいかと尋ねた。「はい」と答えると、Pepperの横に人間の担当者が現れ、注文していたシャツを渡してくれた。
それはシームレスな体験であり、オンラインで商品を注文して店頭で受け取る際に付きものの煩わしさを一切感じずに済んだ。通常なら、そのプロセスには、デスクで列に並んで、注文番号を照会し、担当者に伝え、その担当者が倉庫で商品を探して戻ってくるまで待つという体験が伴う。
Pepperは2018年、Affectivaの、音声や視覚的な手がかりを利用して人間の感情を解釈する「Emotion AI」のおかげで、一連の新たな能力も獲得した。長い目で見れば、感情を知覚し解釈する能力は向上し続け、人間とコンパニオンロボットまたは顧客サービスロボットの間のやり取りもより有意義なものになるはずだ。
これは、人間の相棒となることを目指して設計されたLOVOTのようなロボットにとって、特に有用なことかもしれない。LOVOTの頭頂部には、最大1000人の顔を見分けられる顔認識カメラが搭載されている。LOVOTはこのカメラを使って、ユーザーが誰なのか理解し、その人との関係を築く。
人間にロボットとの絆を深めるように働きかける上で、身体的な接触は重要な要素である、とLOVOTを開発したGROOVE Xの代表取締役である林要氏はCESの会場で筆者に話してくれた。だが、このプロセスに重要な要素はほかにもある。同氏によると、アイコンタクトや、ロボットが人間を認識する能力も重要だという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)