Metaは米国時間9月25日、「Ray-Ban Metaスマートグラス」のアップデートをMeta Connectカンファレンスで発表した。
リアルタイム翻訳機能、QRコードや電話番号をカメラ経由で認識する機能、リアルタイムの映像に基づいてAIの支援を受けられる機能などが追加された。発表前のプレスイベントで、筆者はそれらの機能の一部を試してみた。
あるデモでは、Ray-Ban MetaスマートグラスでQRコードを読み取り、写真を撮影すると、リンク先のウェブサイトがスマートフォンで自動的に開いた。おもちゃの車がいっぱいのストリートの模型を眺め、目の前の車について尋ねると、いつもの「look(見て)」というトリガーワードを言う必要もなく、写真が撮影された。また、「Spotify」の特定の曲をリクエストしてみた。これらの機能は、「iOS」と「Android」の「Meta View」アプリを使って動作する。
筆者が最も興味を持っているのはリアルタイム翻訳機能であり、実際の会話にどれだけ素早く反応するかということだ。また、動画に関するAIの支援がどのように機能するのかも気になる。いずれは、AI搭載メガネが、カメラを通じて筆者の世界をより継続的に認識するようになるかもしれない。写真や動画を撮影するとバッテリーが消耗するが、Metaはバッテリー持続時間の改善に取り組んでいるという。
筆者が体験したデモでは接続に問題が生じたことが何度かあったが、これは「iPhone」に接続したRay-Ban Metaスマートグラスを使用している際に時折経験してきたことだ。例えば、音楽プレイリストの再生を音声でリクエストすると、「AirPods」では「Siri」へのリクエストで問題が生じないのに、Ray-Ban Metaスマートグラスではうまくいかないことがある。それでも、この製品はさらに良くなっていくはずだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」