Microsoftの研究所にBill Gates氏が四六時中顔を出していることはないだろうが、マウスとキーボードを超越しようというGates氏のビジョンを実現する取り組みは、Gates氏が毎日監視していなくてもかなり順調に進んでいるようだ。
カリフォルニア州モンテレーで米国時間10月19日から開催されているユーザーインターフェースのカンファレンス「ACM Symposium on User Interface Software and Technology(UIST)」で、Microsoftは、同社のテーブルトップコンピュータ「Microsoft Surface」で使用されているマルチタッチインターフェースを利用して新分野に拡大したものなどを始めとする、いくつかの研究成果を公開している。
Microsoftのテーブルトップコンピュータはまだ商用化のごく初期段階だが、同社は以前から、このテクノロジを発展させるべき次の方向性をどこに見いだすかに向け賢明に努力してきた。
Microsoft Surfaceの開発に携わったMicrosoftの研究者の1人、Andrew Wilson氏も、このカンファレンス参加者の1人だ。Wilson氏は、3Dゲームで使われているのと同じような物理エンジンを利用して、どのようにすればサーフェスコンピューティングのリアリティを大きく高めることができるかというテーマで話をした。
マルチタッチコンピューティングは、コンピュータのオブジェクトに触感の要素を導入した点では大きな進歩だが、どのタッチ動作も同一に処理するため、物体に軽く触れたり、物体を押したりつかんだりできる現実世界との感覚の違いが課題となっている。
Microsoft Surfaceを初めて使った子供は、オブジェクトを動かすのに手全体を使う傾向があるが、大人は、基本的にこのコンピュータが1つの「タッチ」動作に対して1つの点しか認識しないことにすぐ気づくため、指先だけを使うようになる。
「これが問題なのは、微妙な動作が失われてしまうことだ」とWilson氏は語った。
だが、物理エンジンの性能が向上すれば、オブジェクトを折り曲げたり、ねじったり、紙のように破ったりすることさえできるようになるとWilson氏は言う。
「このインタラクションモデルを改良して、すべてのタッチ動作を別個の点として認識してしまうようなわなに陥らないようにするには、どうしたらいいのだろうか」とWilson氏は語る。Wilson氏は論文の中でいくつかの異なるインタラクションを提示し、固形オブジェクトをつかんで操作する(ボールを転がすなど)とか、画面上の1枚の布を折りたたんだり引き裂いたりするといった動作がどのようにできるのかを説明している。
また、英国ケンブリッジにあるMicrosoftの研究所に所属する研究者チームは、「SecondLight」と呼ばれる技術を披露している。この技術は、サーフェスコンピュータを使って2つの画像を投影できるというもので、1つはコンピュータの画面に、もう1つは空中のどこかの場所に表示される。
これは説明が少々難しいのだが、基本的には、コンピュータの画面が透明なディスプレイと画像を捕えるディスプレイにすばやく交互に切り替わるという仕組みだ。プロジェクタがこの切り替わりのパターンと同期し、ディスプレイが透明のときは1つめの画像を、透明でないときは2つめの画像を送信する。これにより、1つめの画像はコンピュータから離れた空中に映し出され、2つめの画像はコンピュータの画面に現れる。2つの画像は人間の目ではわからないほどの速さで切り替えられるため、どちらの画像も常に表示されているように見えるというわけだ。
この記事は海外CNET Networks発のニュースをシーネットネットワークスジャパン編集部が日本向けに編集したものです。海外CNET Networksの記事へ
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス