Microsoftは最新の研究プロジェクト「LightSpace」で、「サーフェスコンピューティング」の取り組みを「空間コンピューティング」に拡大しようとしている。
LightSpaceプロジェクトには、テーブル型コンピュータ「Microsoft Surface」の主要開発者を務めたMicrosoftの研究者、Andy Wilson氏も参加している。Wilson氏らは米国時間10月3日から6日まで米ニューヨークで開催されるACM Symposium on User Interface Software and Technologyで、この新プロジェクトを披露することになっている(社内向けには、2010年3月に本社でMicrosoft Researchが開催した「TechFest」でお披露目済みだ)。
LightSpaceは複数台のデプスカメラとプロジェクタを利用し、ユーザーがタッチ可能な複数のサーフェス領域間でオブジェクトを移動できるようにするものだ。デプスカメラにより、あたかもユーザーが投影されたオブジェクトを手にしているように見え、そのオブジェクトを壁に「ドロップ」するという流れだ。壁では、Microsoft Surfaceテーブルで使われているものに似たマルチタッチジェスチャーを使って操作できる。
LightSpaceとMicrosoftのゲームセンサ技術「Kinect」の間には関連性があり、Microsoftの研究者らは、Kinectによりデプスカメラが一般的になり安価になると想定している。先に公開されたLightSpaceに関するホワイトペーパーでは、以下のように記している。
デプスカメラ(PrimeSense1、3DV、Canestaなどが提供している)は各ピクセルの位置ですぐ近くにある物理的表面までの範囲を直接感知できる。リアルタイムの表面ジオメトリ3次元モデリングを安価に実現するという点でユニークな技術で、これまで難しいといわれてきたコンピュータの視覚問題の一部を緩和するものだ。たとえば、デプスカメラを使ってテレビ会議アプリケーションで人工的な背景を容易に作成できる。MicrosoftのKinect端末は、PrimeSense技術を土台としており、モーション主導型ゲーム向けにプレイヤーの骨格モデルを計算できる。デプスカメラは現在は一般的ではないが、Kinectのリリースにより、価格が下がり、普及が進むと思われる。
LightSpaceは、「the room is the computer(空間がコンピュータ)」という概念(「the network is the computer(ネットワークがコンピュータ)」はOracleに買収されてしまった)を進める取り組みであり、物質の表面部分がインタラクティブな画面になるという将来を思わせるものでもある。これには、ユーザーの体も含まれる。
Microsoftは以前より、Surface技術を拡大する方法を探っている。Microsoftの研究者は数年前、「Microsoft Sphere」を披露し、2009年にはSurfaceのスピンオフプロジェクトとして、「SecondLight」を披露した。SecondLightはリアプロジェクションを用いた技術で、画面の向こうにあるものへ情報を投影可能になっている(話は逸れるが、「Bing Maps on Silverlight」プロジェクトの開発コードは「FlightLight」だ)。
(LightSpaceのウェブサイトは、Microsoft学生パートナーのPradeep氏に教えてもらった。)
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」