logo

「スマホのカメラをブラウザにしたい」--「Google Lens」が描くAR戦略 - (page 3)

Richard Nieva (CNET News) 翻訳校正: 川村インターナショナル2017年10月25日 07時30分
  • このエントリーをはてなブックマークに追加

次の展開

 Google Lensの追加が予定されている次のサービスは、「Googleアシスタント」だ。Amazonの「Alexa」、Appleの「Siri」と並ぶ、Googleのデジタル音声アシスタントである。そのアップデートが「今後数週間のうち」に予定されているという。先々週、そのデモを見せてもらった。Googleフォトと大きく違うのは、被写体にカメラを向けるだけで、リアルタイムでビジュアル検索が実行される点だ。いちいち写真を撮るわけではないので、容量を圧迫せずに済む。続けて質問することもできる。

 では、その次は何になるのか。Chennapragada氏は明言しなかったが、「Googleマップ」が有力候補だとほのめかした。例えば、店舗にカメラを向けるだけで、評価やメニューといった情報が得られるようになるかもしれない(この使い方は、5月に公開された動画ですでに紹介されているが、実際のデモは行われていない)。

 最終的にGoogleは、Google Lensが目の前にあるものを判別するだけでなく、新しいコンテンツを発見するツールになることも目指している。「ただ単に、『これは何?』と聞くだけではなく、『関係のあるものを教えて。ほかにどんなことができるのか、アイデアやヒントを教えて』といった具合に質問できるようにしたい」(Chennapragada氏)

 こうした機能はすべて、今のところスマートフォン上で展開されているが、ARの真価が発揮されるのは、言うまでもなく、スマートメガネに搭載されたときだろう。Facebookもスマートメガネを開発中とされているが、これにはまだ数年かかりそうだ。Googleでは、Google Glassの生まれ変わりとも言える「Project Aura」というプロジェクトが進められている。

 ARメガネについてもChennapragada氏に質問してみたが、軽くいなされてしまった。そのようなフォームファクタ(デバイスの物理的な設計)を現実のものとするには、まだ課題が山積みであるという。

 「現実世界に無理なくシームレスに重ね合わせ、音声と視覚で拡張するというのが、メガネ型というフォームファクタで肝になる要素だ。だが、それをうまく収めるには、別の課題もある」と、Chennapragada氏は述べている。

 それでも、同氏はGoogle Lensとその技術が最終的に向かうかもしれない方向性を認めている。

 「今やっていることが、1つ1つの土台になる。同様に、今後のフォームファクタに関しても、すべてはそれらが土台になっていく」。Chennapragada氏は、そう締めくくった。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]