筆者はMark Zuckerberg氏のコンタクトレンズを装着した。Metaの拡張現実(AR)スマートグラス「Orion」の担当チームが急きょ持ってきてくれたものだ。AR分野に対するMetaの次の大きな飛躍となるOrionを(普段メガネをかけている筆者が)試すのに必要だった。幸いにも、筆者とMarkの視力はそれほど違わないようだ。
コンタクトレンズを入れると、フィットネストラッカーのような見た目だがディスプレイのない、ぴったりフィットするバンドが右の手首に装着された。筆者はワイヤレスの黒くて厚いARグラスをかけ、視線追跡のための調整を始めた。少人数のチームが、近くのPCの画面を見守っている。
こうした瞬間は、長年ARや仮想現実(VR)に浸ってきた筆者でも、奇妙な新しい未来に迷い込んだように感じられた。初期のプロトタイプであるOrionは一般向けにはほど遠いが、筆者が他の場所で目にした技術と、ほとんど試したことのない技術が融合したものだからだ。一方で、全体的に馴染み深いような感覚もあった。
数週間前、筆者はSnap製の開発者向けARメガネ「Spectacles」を装着した。こちらはMetaのものより分厚く、視野角も狭い。Metaの製品はより小型で、視野角は70度と広いことに感心した。独自のワイヤレスニューラル入力用リストバンドも備えている。スマートフォンほどの大きさの外部プロセッサーパックが必要で、こちらは「Apple Vision Pro」のバッテリーパックよりやや小型かつ軽量で、ケーブルも接続されていない。
約1時間をかけて、Orionのさまざまな機能を体験し、この新技術の今と未来について、Metaのチームと話をした。Orionは、圧縮されたMRヘッドセットのように感じることもあれば、「Ray-Ban Metaスマートグラス」の進化形のように感じることもあった。実際、Orionはこの2つの要素を兼ね備えている。
Orionの大きな特徴は、通常なら大型のMRヘッドセットにしか搭載されていないような、多数のセンサーを搭載していることだ。レンズの側面には本格的な視線追跡カメラが埋め込まれ、フレーム上部にはアウターカメラが、左右のアームには手や部屋を追跡するための側面カメラが隠れている。さらにはスピーカーやマイク、独自のプロトコルで通信するためのWi-Fi 6も搭載する。この他、ARグラスのアプリやグラフィックを動かすためのコンピュートパックも別途用意されている。
コンピュートパックには、独自のトラッキング用カメラと埋め込み式のタッチパッドが搭載されている。このパックは当初、ARグラスのコントローラーとして設計されていたが、その後、ハンドトラッキングと筋電位(EMG)を利用した操作に注力することにしたという。このため、将来は新たな役割が追加される可能性もありそうだ。
デモでは、ARグラスの内部構造を確認できるスケルトンモデルも見せてもらったが、あらゆる部分にハイテク技術がつめこまれていることが分かった。これはOrionが先進的なエンジニアリングの結晶であることをアピールする賢い方法だ。これだけの技術が盛り込まれているにもかかわらず、重さは100gもない。サイズは確かに大きいものの、かけてしまえば心地よくフィットした。
Orionの視野角は70度だ。VRヘッドセットと比べると狭いと感じるかもしれない。一般に、VRデバイスの視野角は90度か、それ以上ある。しかしARヘッドセットの場合、視野角はもっと狭いことが多く、ポップアップするARディスプレイの表示領域となると、さらに小さい。例えば、Snapの新作ARグラスであるSpectaclesの視野角はわずか46度だ。
このように、OrionはARグラスとしては視野角が(特に水平方向に)広い。デモ中に視野の端で画面が切れることもあったが、少なくとも今回は気にならなかった。
筆者が知る限り、Orionに匹敵する視野角を持つARグラスのレンズは、6月にあるカンファレンスで試したAR光学機器メーカーLumusのレンズだけだ。Metaは炭化ケイ素製のレンズとマイクロLEDプロジェクターを組み合わせることで、小さなフレームと広い視野を両立させた。MetaのAI・ARウェアラブル製品管理担当シニアディレクターのRahul Prasad氏によると、素材として炭化ケイ素を採用することで、近距離での広い視野を実現し、複雑な導波管を用いて光を屈折させることで、虹効果の発生を抑制しているという。
Orionは、確かに普通のメガネには見えないが、街中で見かけてもおかしくない程度の見た目には近づいている。筆者がかけると、極太の芸術家風フレームといったところだ。レンズはやや暗い色が入っているように見えるが、装着してみると視界はクリアで鮮明だ。SnapのSpectaclesのように、快適な視界を提供するために自動調光機能があると聞いていたが、デモでは体験できなかった。
ディスプレイに関する問題の1つは解像度だ。Metaによると、Orionの解像度は視野角1度あたり13ピクセルだ。アプリやビデオ、ゲームに使う分には問題ないが、MetaのVRヘッドセット「Quest 3」(視野角1度当たり25ピクセル)ほどの鮮明さはない。会場には高解像度モデル(視野角1度当たり26ピクセル)も用意されていたため、映画「ジュラシックパーク」の短いクリップを見た。今後の目標は、消費者向け製品としてリリースするまでに可能な限り解像度を上げることだ。視野角が広いということは、鮮明な映像を描写するために多くのピクセルを必要とすることを意味するため、必然的に消費電力も大きくなる。
Orionに関しては、ARグラス以上に印象的だったのがリストバンドだ。筆者は2年ほど前、Metaの研究施設Reality Labs ResearchでEMGニューラルインプット技術のプロトタイプを見た。そのときは自分では操作できず、Metaの最高経営責任者(CEO)であるZuckerberg氏が使っているところを眺めるにとどまった。しかし今回はついに自分でも試すことができた。
新しいリストバンドは、当時よりもはるかに小型化され、スマートウォッチのストラップの強化版のように見えた。マグネットと留め具のおかげで手首にしっかり装着できる。このリストバンドが皮膚からの電気信号を感知し、対応するアクションに変換する。複雑なジェスチャーや微妙な振動も理解できる上に、ARグラスのハンドトラッキングカメラの範囲で手を動かさなければならないとった制約もない。EMGセンサーの処理はすべてリストバンドで行われ、バッテリーも1日は優に持つ。
Appleの「Vision Pro」とMetaのQuestもハンドトラッキングに対応しているが、Orionのジェスチャーはもう少し多機能だ。おなじみのピンチ動作でボタンやアプリを選択するだけでなく、例えば握った拳の上で親指を動かす動作でスクロールができる。視線を使った操作はAppleのVision Proと変わらないが、Orionの場合、手を自然に下ろした状態でもジェスチャーによる操作が可能だ。
ジェスチャー操作の精度はまだ完璧とは言えない。ピンチ動作が正しく認識されず、やり直さなければならないこともあった。一方、アイトラッキングは非常にうまくいった。これを組み合わせれば、Vision Pro後の新たなインターフェイスとなる可能性がある。スマートウォッチやリストトラッカーに高度なジェスチャー感知技術とアイトラッキング機能を搭載すれば、可能性は無限大だ。
ジェスチャーを感知できるリストバンドの可能性は未知数だが、リストバンドに搭載されたEMG技術は、Orionが正式に製品化される前に他の製品に組み込まれるかもしれない。Metaのウェアラブル技術部門を率いるAlex Himel氏は、EMGバンドは将来、Metaの多くのデバイスに組み込まれるだろうと語った。その1つは、長年うわさされてきたスマートウォッチかもしれない。EMGバンドをMetaの既存の製品、例えばQuestヘッドセットやRay-Ban Metaスマートグラスと組み合わせても、面白いことができるかもしれない。
今回のデモでは、Orionを実際に使ってさまざまな体験をしたが、その多くはQuestやRay-Ban Metaスマートグラスで体験できる複合現実やAIのバリエーションのように感じられた。Vision Proと同じように、手をあげて中指と親指でピンチの動作をするとアプリのメニューが開く。アプリに視線を合わせて、人差し指と親指をタップすると、アプリが起動する。
デモでは、正面に見えるウィンドウでNFLのAaron Rodgers選手がニューイングランド・ペイトリオッツを相手にタッチダウンを決めるYouTube動画を見た。ウィンドウを目の前に引き寄せることもできた(Metaは視聴者のニーズを理解している)。Metaの広報担当者がスマートフォンからかけた電話を受け、応答することもできた。その際は、画面に担当者のビデオフィードも表示された。「Messenger」に届いたメッセージに、音声操作で返信することもできた。複数のウィンドウを横に並べられるのは、視野角が広いおかげだ。
AI関係のデモもいくつか見た。1つは言葉で指示を出し、Meta AIに(2D)画像を生成してもらうという、ありきたりのものだ。もう1つのデモでは、さまざまな食料品が並んだテーブルの前に立ち、その材料で作れる料理のレシピをMeta AIに提案してもらった。Ray-Ban Metaスマートグラスのユーザーにはおなじみの効果音とともにレシピが表示され、テーブル上の食料品に、それが何かを示すラベルがポップアップ表示された。ARを活用した、もっと複雑で双方向的な指示を期待していたのだが、現時点ではまだ難しいようだ。
ちょっとしたシューティングゲームも遊んだ。頭部の動きで宇宙船を操作し、目と指のピンチで敵を撃つ。楽しかったが、Vision Proでも似たようなゲームがあった気がする。別のゲームデモでは、テーブルを挟んで2人用ゲームをプレイした。QRコードをスキャンすると、「PONG」風の3Dゲーム空間が2人の間に浮かび上がり、手をラケットに見立てて球を打ち合う。
ここで別のMeta社員から着信があった。今回は、社員はリアルな3Dの「Codec Avatars」(Metaのリアルなアバター技術の名称。Appleでいうところの「Persona」)の姿で表示された。MetaのヘッドセットはまだCodec Avatarsに対応していないが、近いうちに使えるようになるのかもしれない。3Dレンダリングされた頭部と表情はかなりリアルだった。
こうしたデモは、過去に筆者が体験した印象的なMRデモと比べるとインパクトに欠けたが、比較的コンパクトでありながら広い視野を持つARグラスや、ジェスチャーコントロールが可能なリストバンドを実際に試すことができたのは刺激的だった。
10年以上前に初めてVRデモに参加したときと比べると、技術はめざましく進化した。しかし今後登場するデバイスは間違いなく、複合現実の世界に再び革命を起こすことになるだろう。VRヘッドセットとスマートグラスの地道な進化は、やがて臨界点に達する。そのとき、未来は突然、現実となるのかもしれない。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス