Appleの最新製品「Vision Pro」のニュースをもう目にしただろうか。この複合現実(MR)ヘッドセットは、視線や手の動きによるナビゲーションやインタラクションといった機能を搭載しており、特殊な3Dカメラによって3次元の画像や動画を撮影してヘッドセット内で視聴できる上、「FaceTime」のビデオ通話で使えるユーザーのアバターも作ってくれる。
このヘッドセットには大量のテクノロジーが搭載されている。同社独自のmicro-OLEDテクノロジーを採用したディスプレイによって2300万以上のピクセル表示が可能になっている点は言うまでもなく、Appleの「M2」プロセッサーと、新たに開発された「R1」プロセッサーに加え、数多くのカメラやセンサー、マイクが搭載されている。こうした数々のテクノロジーが採用されている点と、第1世代のデバイスであるという点が、3499ドル(約49万円)という価格の一因となっている。いや正確に言えば、3499ドルは開始価格だ。
Appleが、より多くのストレージを搭載したり、追加のバッテリーパックを搭載した複数のモデルを販売するかどうかは分からないが、多くの人々にとってVision Proの開始価格を引き上げる要素が少なくとも1つあることは分かっている。それは視力矯正用のレンズだ。プレスリリースの注釈部分、そしてAppleのウェブサイト内にあるVision Proのページには、こうしたレンズが別売りになると記されている。
その通りだ。筆者のようにメガネを必要としている人間がこのヘッドセットを使用するには、Vision Pro向けに作られたZEISS製の専用レンズを購入する必要がある。
Appleが「オプティカルインサート」と呼ぶこのレンズは、ヘッドセットの内側に磁力で固定されるようになっている。
こういったオプティカルインサートは、視線追跡用のセンサーや、ヘッドセットのロックを解除する虹彩センサーと連携するとともに、画質を劣化させたり画像をひずませることなく機能する必要がある。
このオプティカルインサートもヘッドセットと同様、安価なものにはならないだろう。筆者はオプティカルインサートに関する詳細をAppleに問い合わせているが、今のところ回答はない。筆者の想像になるが、Vision Proが実際に顧客に向けて出荷されるまで、あるいは2023年の後半になるであろう開発者向けキットの提供時まで、この製品の価格は発表されないのではないかと考えている。
筆者の勘では、オプティカルインサートは500ドル(約7万円)か、それより高くなるとみている。Snapの「Spectacles」 や一般的なメガネの矯正用レンズは300ドル(約4万2000円)未満で購入できるが、今回の場合は一般的なレンズではない。
その場合、Vision Proと矯正レンズを合わせると4000ドル(約55万7000円)ほどになる。何ということだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス