Google Lensの追加が予定されている次のサービスは、「Googleアシスタント」だ。Amazonの「Alexa」、Appleの「Siri」と並ぶ、Googleのデジタル音声アシスタントである。そのアップデートが「今後数週間のうち」に予定されているという。先々週、そのデモを見せてもらった。Googleフォトと大きく違うのは、被写体にカメラを向けるだけで、リアルタイムでビジュアル検索が実行される点だ。いちいち写真を撮るわけではないので、容量を圧迫せずに済む。続けて質問することもできる。
では、その次は何になるのか。Chennapragada氏は明言しなかったが、「Googleマップ」が有力候補だとほのめかした。例えば、店舗にカメラを向けるだけで、評価やメニューといった情報が得られるようになるかもしれない(この使い方は、5月に公開された動画ですでに紹介されているが、実際のデモは行われていない)。
With Google Lens, your smartphone camera won’t just see what you see, but will also understand what you see to help you take action. #io17 pic.twitter.com/viOmWFjqk1
— Google (@Google) 2017年5月17日
最終的にGoogleは、Google Lensが目の前にあるものを判別するだけでなく、新しいコンテンツを発見するツールになることも目指している。「ただ単に、『これは何?』と聞くだけではなく、『関係のあるものを教えて。ほかにどんなことができるのか、アイデアやヒントを教えて』といった具合に質問できるようにしたい」(Chennapragada氏)
こうした機能はすべて、今のところスマートフォン上で展開されているが、ARの真価が発揮されるのは、言うまでもなく、スマートメガネに搭載されたときだろう。Facebookもスマートメガネを開発中とされているが、これにはまだ数年かかりそうだ。Googleでは、Google Glassの生まれ変わりとも言える「Project Aura」というプロジェクトが進められている。
ARメガネについてもChennapragada氏に質問してみたが、軽くいなされてしまった。そのようなフォームファクタ(デバイスの物理的な設計)を現実のものとするには、まだ課題が山積みであるという。
「現実世界に無理なくシームレスに重ね合わせ、音声と視覚で拡張するというのが、メガネ型というフォームファクタで肝になる要素だ。だが、それをうまく収めるには、別の課題もある」と、Chennapragada氏は述べている。
それでも、同氏はGoogle Lensとその技術が最終的に向かうかもしれない方向性を認めている。
「今やっていることが、1つ1つの土台になる。同様に、今後のフォームファクタに関しても、すべてはそれらが土台になっていく」。Chennapragada氏は、そう締めくくった。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス