未来のスマートグラスは「ジェスチャー」が鍵に--CES 2025所感

Lisa Eadicicco (CNET News) 翻訳校正: 編集部2025年01月17日 07時30分

 CES 2025のにぎやかな展示会場の一角で、筆者はオーケストラの指揮者になった気分だった。腕を左右に軽く振ると、目の前の巨大なスクリーンに映ったチェロが音を奏でる。腕を速く動かすほど、弦の上を流れる弓の動きも速くなる。超高速パフォーマンスを披露した時は、ブースにいた他の参加者から喝采が起きた。

 これはジェスチャーでデバイスを操作できるリストバンド型デバイス「Mudra Link」のデモでの一幕だ。モーションコントロール自体は新しい技術ではない。筆者は2014年にアームバンド型デバイス「Myo」(マイオ)で非接触の操作を体験したことがある。当時と違うのは、スマートグラスの登場によって、この種のガジェットの存在価値が大いに高まったことだ。2025年のCESの会場はスマートグラスであふれていた。

 スマートグラスの登場から、かれこれ10年以上。新興企業も大手ハイテク企業も、このデバイスの将来性を見込み、開発を続けてきた。音声と視覚入力を同時に処理できるAIモデルが登場すると、スマートグラスの普及がにわかに現実味を帯びてきた。Googleのスマートグラス「Project Astra」のプロトタイプが示したように、ユーザーが見ているものを見、リアルタイムで質問に答えられるようになれば、デジタルアシスタントの有用性ははるかに高まる。2024年9月のIDCのレポートでは、2024年のスマートグラスの出荷台数を前年比73.1%増と予想しており、このハイテク眼鏡が着々とユーザー数を伸ばしていることを示している。

 2024年秋にはMetaがリストバンドで操作できる、ジェスチャー操作と神経入力に対応したARグラス「Orion」のプロトタイプを発表した。2024年のARカンファレンス「Augmented World Expo」では、複数のスタートアップ企業が同じような実験的デバイスを披露した

 CES 2025は、多くの企業が未来のスマートデバイスの操作方法を真剣に検討していることを浮き彫りにした。会場ではリストバンド型のMudra Link以外にも、スマートグラスと一緒に使うことを想定したウェアラブルをいくつか見かけた。

 例えば「Afference Ring」は、指に神経センサーを装着し、ジェスチャー操作の際に触覚フィードバックを返すデバイスだ。スマートグラスやヘッドセット向けに設計された製品だが、実際の動きを体験するためにタブレットとペアリングされたプロトタイプを触らせてもらった。

 あるデモでは、シンプルなミニゴルフゲームをプレイした。腕を後ろにぐっと引いてから戻すと、画面内をゴルフボールが飛んで行く。腕を後ろに引くほど、指に伝わる触覚も強くなる。画面の明るさや音量のスライダーを操作した時も指に振動が伝わった。明るさを上げるほど、指に伝わる振動は強くなった。

Afference Ringを着けた指
Afference Ring
提供:Nic Henry/CNET

 シンプルなデモだったが、触覚フィードバックが複合現実(MR)デバイスのメニューやアプリにどう取り入れられるのかを垣間見る機会になった。Afferenceは現在のところ、開発パートナーを公表していないが、サムスンの投資部門であるSamsung NEXTがAfferenceのシード資金調達ラウンドに参加していることは注目に値するだろう。サムスンは2024年に初の指輪型ヘルストラッカーを発表し、12月にはGoogleが発表した「Android XR」プラットフォームで動作する初のヘッドセットを開発中であることを明らかにした。

 リストバンド型デバイスMudra Linkは、2025年に登場するTCLのARグラス「RayNeo X3 Pro」と連携する予定だ。筆者はMudra Linkを手首につけ、RayNeoのスマートグラスのアプリメニューをスクロールしてみたが、まだソフトウェアは完成していなかった。

 結局CES 2025の会場でMudra Linkを使ってできたことは、デモ用の巨大スクリーンに映し出されたグラフィックの操作くらいだった。冒頭で紹介したチェロのデモが最も印象的だったが、スクリーンに表示されたアニメのキャラクターの顔を手と指の動きでつかんだり、引っ張ったりしながら、スクリーン内を動かすデモも体験できた。

 CES 2025では、Hallidayからもナビゲーション用リング付きのスマートグラスが発表された。リングは試せなかったが、スマートグラスを使って短時間、リアルタイム翻訳を使ってみたところ、展示会場という騒々しい環境にもかかわらず、即座に翻訳テキストが視界に表示された。

Hallidayのスマートグラスを試す筆者 Hallidayのスマートグラスを試す筆者
提供:James Martin/CNET

※クリックすると拡大画像が見られます

 ジェスチャーを使わない場合、スマートグラスの操作は基本的にデバイス上でのタッチ操作か音声コマンドの二択になる。タッチ操作はメニューのスワイプやアプリの起動、通話の切断といった素早いアクションに適しており、音声コマンドはバーチャルアシスタントを呼び出し、指示を与えする際に重宝する。

 ジェスチャー操作は、手を顔に近づけたり、大きな声で話しかけたり、外部コントローラーを手に持ったりする必要がないため、操作が簡単になる可能性が高い。ただし、画面はスマートグラスをかけている本人にしか見えないので、操作している様子を外から見た時の違和感は残る。筆者も大勢の人がいる中で、唐突に手を振り回したいとは思わない。

 Metaはすでにジェスチャーで操作するスマートグラスに舵を切っており、同社の最高技術責任者(CTO)のAndrew Bosworth氏は最近、米CNETに対し、将来のディスプレイ搭載グラスの多くはジェスチャー操作が必須になるだろうと語った。

 CESが未来を示唆しているとすれば、2025年はスマートグラスにとって飛躍の年となりそうだ。そしてジェスチャー操作は間違いなく、新しい空間インターフェイスの操作手段として、一定の役割を果たすことになるだろう。

ARスマートグラス「XREAL Air 2 Pro」(価格をAmazonでチェック)

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]