logo

グーグルの拡張現実メガネを動かす人工知能--専門家に聞くその役割と将来性

Martin LaMonica (CNET News) 翻訳校正: 川村インターナショナル2012年04月13日 07時30分
  • このエントリーをはてなブックマークに追加

 Googleの「Project Glass」のデモは、2012年に行われたハードウェアのデモの中で最も素晴らしいものだ。そして、その背後で動作し、同じように興味深いのが人工知能ソフトウェアだ。

 米国時間4月5日には、Googleの共同創設者のSergey Brin氏がこの拡張現実メガネを装着している様子が目撃されている。Googleは4日に、このメガネの使用方法を装着者の視点で説明する動画を公開して、大きな話題となった。

 その動画では、メガネに搭載されている小さな画面にタイミングよく情報が表示される。これにより、装着者は友人と会うための予定を決めたり、市内での道順を調べたり、書店で本を見つけたりするほか、友人とのビデオ会議まで行うことができる。デバイス自体は、顔に沿うようにフレームが湾曲しているメガネだがレンズはなく、右目の上部分に小さなスクリーンが搭載されている。

 この拡張現実メガネで可能な作業のほとんどは、情報の収集やコミュニケーションといった、スマートフォンを使えばできるようなことだ。しかしデモ動画では、背後で人工知能システムが動作している様子が垣間見える。専門家によれば、人工知能システムこそが、ウェアラブルコンピュータも含めたモバイルデバイスの能力をさらに高め、より複雑な作業を可能にするという。

 人工知能ソフトウェア会社Expertmakerで最高技術責任者(CTO)を務めるLars Hard氏は、「今回Googleが新たに示したのは、デバイスの可能性というよりも、新しいハードウェアを使ったインタラクションモデルだ。人工知能は実際に、さまざまな意思決定のための状況を強化し、改善できる」と述べている。

 人工知能とは、厳密な定義が取り決められているわけではないが、言語やジェスチャーの認識によって人間のような行動をし、人間の思考を模倣するコンピュータシステムのことを指す。人工知能システムをモバイルデバイスと連携させれば、バックグラウンドでタスクを行い、関連性の高い情報をユーザーに提供できるとHard氏は語る。

 Project Glassのハードウェアは、主に音声コマンドで操作するようになっている。これはGoogleがAppleの「Siri」のようなモバイルデバイス用音声認識テクノロジに取り組んでいることを示すものだ。好評を集めているSiriは、口頭でのコマンドを情報検索や予定の設定といった「iPhone」上でのアクションに変換する。報道によれば、Googleは「Android」向けの音声認識ソフトウェアを開発しているという。

米国時間4月5日に開催されたチャリティーイベントで、拡張現実メガネを装着しているGoogleの共同創設者のSergey Brin氏。
米国時間4月5日に開催されたチャリティーイベントで、拡張現実メガネを装着しているGoogleの共同創設者のSergey Brin氏。
提供:Thomas Hawk

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]