「Kinect」から「Windows 8」に至るまで、Microsoftはジェスチャ認識がユーザーインターフェースの未来であることを指し示してきている。
同社の研究者らは現在、「Digits」という新たなプロジェクトにおいて、ジェスチャに基づくユーザーインターフェースの正確さや機動性の向上に取り組んでいる。
米国時間10月9日に公開されたプロトタイプシステムは、ユーザーの手首に装着するセンサを使用し、ユーザーの手の位置を3次元で認識するとともに、それをソフトウェアに対するコマンドへと変換するようになっている。
同システムでは、個々の、あるいは連続的なジェスチャを用いてソフトウェアを操作できるようになっている。例を挙げると、ピンチアウトというジェスチャはドキュメントの拡大だと解釈される。また必要に応じて、Digitsを制御する人間の手の動きをディスプレイ上に表示することもできる。
Microsoft Researchによると、研究者らは「データグローブ」を使用することなく、ユーザーの手による自然な3次元ジェスチャを高い精度で認識するシステムの実現を目指しているという。
手首に装着するシステム形態を採ることで、常に制御ハードウェアが認識できる位置で手を動かす必要がなくなる。
Microsoft ResearchのPhDフェローであり、ニューキャッスル大学のCulture Labで働くDavid Kim氏は「Digitsのセンサは外部インフラに依存していないため、ユーザーは特定の空間に縛られることがない。ユーザーは部屋から部屋へと移動したり、街中をジョギングしている間もやり取りを行える」と述べている。
現行のDigitsは赤外線(IR)カメラとIRレーザーラインジェネレータ、IR拡散イルミネータ、慣性測定ユニットを使用して、手首の方向や各指の関節の角度を含む手の動き全体を追跡するようになっている。
研究者らは、このシステムが将来的に、モバイル機器やタブレット機器のユーザーインターフェースとして使用されたり、全身の動きを追跡するKinectのテクノロジと組み合わせてゲームコンソールの操作に使用されるようになると考えている。
Digitsの手首に装着する部分は、既成の部品を組み合わせて作られているため無骨で大きいものの、研究者らは平均的な腕時計のサイズにまで小さくしたいと考えている。
Digitsに関する技術論文は、10月7日から開催の「UIST 2012」カンファレンスで発表される。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
パナソニックのV2H蓄電システムで創る
エコなのに快適な未来の住宅環境
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手