Googleの「Project Glass」のデモは、2012年に行われたハードウェアのデモの中で最も素晴らしいものだ。そして、その背後で動作し、同じように興味深いのが人工知能ソフトウェアだ。
米国時間4月5日には、Googleの共同創設者のSergey Brin氏がこの拡張現実メガネを装着している様子が目撃されている。Googleは4日に、このメガネの使用方法を装着者の視点で説明する動画を公開して、大きな話題となった。
その動画では、メガネに搭載されている小さな画面にタイミングよく情報が表示される。これにより、装着者は友人と会うための予定を決めたり、市内での道順を調べたり、書店で本を見つけたりするほか、友人とのビデオ会議まで行うことができる。デバイス自体は、顔に沿うようにフレームが湾曲しているメガネだがレンズはなく、右目の上部分に小さなスクリーンが搭載されている。
この拡張現実メガネで可能な作業のほとんどは、情報の収集やコミュニケーションといった、スマートフォンを使えばできるようなことだ。しかしデモ動画では、背後で人工知能システムが動作している様子が垣間見える。専門家によれば、人工知能システムこそが、ウェアラブルコンピュータも含めたモバイルデバイスの能力をさらに高め、より複雑な作業を可能にするという。
人工知能ソフトウェア会社Expertmakerで最高技術責任者(CTO)を務めるLars Hard氏は、「今回Googleが新たに示したのは、デバイスの可能性というよりも、新しいハードウェアを使ったインタラクションモデルだ。人工知能は実際に、さまざまな意思決定のための状況を強化し、改善できる」と述べている。
人工知能とは、厳密な定義が取り決められているわけではないが、言語やジェスチャーの認識によって人間のような行動をし、人間の思考を模倣するコンピュータシステムのことを指す。人工知能システムをモバイルデバイスと連携させれば、バックグラウンドでタスクを行い、関連性の高い情報をユーザーに提供できるとHard氏は語る。
Project Glassのハードウェアは、主に音声コマンドで操作するようになっている。これはGoogleがAppleの「Siri」のようなモバイルデバイス用音声認識テクノロジに取り組んでいることを示すものだ。好評を集めているSiriは、口頭でのコマンドを情報検索や予定の設定といった「iPhone」上でのアクションに変換する。報道によれば、Googleは「Android」向けの音声認識ソフトウェアを開発しているという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」