logo

グーグルの拡張現実メガネを動かす人工知能--専門家に聞くその役割と将来性 - (page 2)

Martin LaMonica (CNET News) 翻訳校正: 川村インターナショナル2012年04月13日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

 「Google+」の投稿によれば、Project Glassの開発者たちは、このハードウェアは「自分の世界を探索し、共有しながら、すぐに戻ってこられる」ように設計されていると語っているという。Googleの秘密の研究室「Google X Labs」のメンバーであるBabak Parviz氏、Steve Lee氏、Sebastian Thrun氏の3人は、Project Glassを紹介する投稿で、「われわれは、テクノロジはユーザーのために機能するべきだと考えている。必要なときにそこにあって、必要ないときには邪魔にならないようにするべきだ」と語っている。

 例えば、デモ動画には、装着者がメガネに付いているボタンを押してポスターの写真を撮り、それを自分あてに送信する場面がある。この新しい種類のユーザーインタラクションは、携帯電話やカメラをポケットから取り出すよりも素早く行える。

 デモ動画では、このメガネを動かすソフトウェアに位置認識機能があることも示している。装着者が歩いていると、地下鉄6号線が止まっているという通知が表示され、目的地に到着するための別のルートをシステムが提案してくれる。

 Hard氏は、ウェアラブルコンピュータに物理的な環境を認識させ、ユーザーに合わせた情報を提供させるためには、バックグラウンドに人工知能と機械学習ソフトウェアが必要だと指摘する。Googleのフェローで、Project GlassチームのメンバーであるThrun氏は、人工知能とロボティクスの専門家であり、Google X Labsの別のプロジェクトである自動運転車にも関与していることが分かっている。

 未来研究所のシニアリサーチャーで、ウェアラブルコンピュータを専門とするMichael Liebhold氏は、The New York Timesに次のように語っている。「これによって、GoogleはAppleの前に出た。現時点ではかなり先を行っている。Googleは、ウェアラブルコンピュータ専門の科学者を集めたスーパースターチームに加えて、『Google Maps』などの必要なデータ要素も保有している」

クラウドの中の人工知能

 Hard氏は、より高機能な人工知能プラットフォームとウェアラブルコンピュータが1つになれば、オンラインの友人の検索や地図の提供をはるかに超えたことが可能になると語る。

 装着可能な画面があれば、医師の診断をサポートすることも、商談の場や、小売などのサービス業で使うこともできるとHard氏は言う。拡張現実メガネのスクリーンはスマートフォンより小さいものの、同氏によれば、「適切な情報を適切なタイミングで」伝えたり、図表などの複雑なデータを表示したりできる可能性があるという。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]