今週に入ってGoogleの「Project Glass」チームが動画を公開し、Googleの一番得意なこと、つまり検索において、拡張現実メガネ「Google Glass」の仕様がいかに役立つかを紹介した。
Glassをめぐる大きな話題の多くは、まさしく自分の視点から見たものを記録できる機能についてのものだ(たとえば、プロポーズする様子をGlassで撮影した動画がすでに公開されている)。だが、今回公開された動画で紹介されている20の検索例は、この新しいハードウェアに組み込まれた「Google Now」が本領を発揮したときの威力を示している。
Googleの共同創設者Sergey Brin氏など、Googleの人たちがこれまで何度も強調してきたのは、デバイスの存在を意識させない使い方だ。つまり、Glassを使うとスワイプやタップを繰り返さずにシームレスな操作で検索ができるという点だった。今回の動画では、Glassで検索を行う非常に現実的な使用例を披露している。たとえば、車の運転中にフライト情報を確認したり、昨夜のスポーツの試合結果をチェックしたりといった具合だ。また、パジャマを着た子犬が写った楽しい写真を探すといった例もある。
どの検索も、Glassの側面にあるトラックパッドを1回タッチし、言葉を発するだけで実行されているらしい。何よりも印象的なのは、その時々の状況に応じて話し言葉を理解できる機能を、Googleがハンズフリーの操作性とうまく組み合わせていることだ。
もちろんこのプロモーション用途の動画からは、的外れな検索結果がどれだけ返ってきたかは分からない。だが、「明日は傘が必要かな」という問いかけにはきちんと天気予報を表示し、「男の声で『how bizarre』と歌っている曲のアーティストは誰?」という質問には「OMC」と正しい答えを返しているようだ。「Jim Carreyが自分の記憶を消し去った映画は何だった?」と尋ねられたときは、IMDbのデータベースから「Eternal Sunshine of the Spotless Mind(邦題:エターナル・サンシャイン)」というタイトルを探し出している。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」