Googleは、装着者の目の前にデータをリアルタイムでストリーミングできるメガネのプロトタイプをテスト中であることをついに認めた。
Googleは、この拡張現実に関する実験の動画をYouTubeに投稿した。この動画の中では、メガネを装着している人がマンハッタンのさまざまな場所を歩き回り、メガネにストリーミングされる最新情報を受信する様子が示されている。
この特殊なメガネのプロジェクトについては、2011年12月から報じられていた。
Googleは現在、同プロジェクトを「Project Glass」と呼んでいる。Babak Parviz氏とその協力者であるSteve Lee氏およびSebastian Thrun氏は、動画に添えた短い文章の中で、メガネの中にどのようなものを見たいかと尋ね、閲覧者からのフィードバックを求めている。
Google[x]に所属するわれわれのグループは、人々が自分の世界を探索および共有するのを支援しつつ、瞬時に人々を現実に引き戻す技術を開発するためにProject Glassを開始した。われわれが今、この情報を共有するのは、皆さんと会話を開始し、貴重なインプットを得たいからである。そこで、この技術がどのようなものであるかを伝えるためのデザイン写真をいくつか撮影し、これによってどのようなことが可能になるかを示す動画を作成した。
ワシントン大学の准教授であるParviz氏は、バイオナノテクノロジの専門家で、電子回路が組み込まれたコンタクトレンズを開発している。Thrun氏は、Googleの自動運転車の開発にも貢献した。
同社が提供している写真によると、Googleのメガネは、Oakley製メガネのようなメタリックなフレームでレンズがなく、装着者の額に沿うよう曲線的な形をしており、鼻あてで支えるようになっている。フレームの右側には薄型のデバイス(おそらくは小型コンピュータ)があり、右目の上部右側に半透明の画面がある。
動画では、装着者の視点からGoogleメガネの動作の様子を示している。装着者がサンドイッチを食べていると、友人から会わないかという誘いのメッセージがポップアップする。装着者が音声でこれに応答すると、メッセージが送信される。
装着者が街の中を移動する間、メガネはさまざまな方法で装着者を支援する。例えば、地下鉄が遅延していることや、待ち合わせ場所に徒歩で行く道順などを教えてくれる。最後に装着者は、ヘッドセットで再生していた音楽を止めて、友人とビデオ会議を開始する。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス