これまで数多くのVRやMR、ARデバイスを試してきた。
国内や海外での展示会で新製品のタッチアンドトライや、メタバースを扱ったイベントなど、事あるごとにヘッドマウントディスプレイを被ってきた。そのなかにはいくつか実際に購入したデバイスもあった。
しかし、世間が「これからはメタバースだ」と騒ぐ中、正直言って「時期尚早なのではないか。もっとデバイスに進化が必要なのではないか」と個人的にはメタバースブームには半信半疑という立場であった。
そんななか、2023年6月5日、アップルの開発者向けイベント「WWDC23」において、同社の空間コンピュータである「Apple Vision Pro」を試すことができた。
正直言って、実機を体感した瞬間、感動している自分がいた。
これまでのデバイスとは明らかにレベルが違う。過去に試してきたデバイスの欠点や課題を見事にクリアしているのだ。アップルは他社製品をこれまで相当研究し、ダメ出しした上でApple Vision Proを開発してきたのだろう。
筆者がこれまで抱いていたVRやMRデバイスの「4つの課題」をApple Vision Proがどのように克服しているかをひとつずつ紹介していきたい。
VRなどのメタバース端末を使っていてストレスになるのが操作性だ。コントローラーを駆使してメニューを選択したり、MRデバイスで手を使って操作をしても、上手くコンテンツがつかめない、クリックするのが難しかったりと、快適な操作とはほど遠かったりする。
Apple Vision Proでまず驚かされたのが操作性だ。本体を被り、準備が終わると目の前にアイコンが並ぶメニュー画面が表示されるのだが、目的のアイコンを見るだけでアイコンが少し、大きくなる。あとは親指と人差し指で軽くつまんで開く作業をすると、クリックした状態になり、アプリが開くようになる。
基本的な操作はこれだけ。選びたい場所を見ると、そこが反応し、指でポンとやればクリック状態になるという繰り返しだ。
画面のスクロールなどは人差し指と親指をつまんだ状態で左から右あるいは、ウェブサイトのスクロールであれば、上から下に手を下ろしてくれば良い。
この視線での選択が実にストレスなく快適にできてしまうことに驚いた。この感激は、2007年に発売されたiPhoneをハワイに購入しに行き、初めてタッチパネルで操作したときの感覚に近いものがある。アップルは視線入力という全く新しいユーザーインターフェースを開発してしまったのだ。これまでメタバース端末が抱えていた「快適とはほど遠い操作性」とは無縁といえるのだ。
数年前のメタバース端末は、映像に黒いメッシュが見えたり、ジャギー感があったりと、まだまだ発展途上であった。最近はかなりマシにはなったが、それでも「いかにも映像を見ている感じ」になってしまう。
Apple Vision Proで見られる映像や画像はまさに目の前にiPhoneを置いている感覚になるぐらいの高解像度だ。視界全体に風景などを表示させると、本当にリアルにその場にいるような臨場感となっている。こればかりは、本当に過去には体験したことないほどのクオリティで驚いている。
臨場感の生成に欠かせないのが音だ。Apple Vision Proでは空間オーディオにより、その場にいるような音の響きとなっている。高解像度の映像と立体オーディオによって、脳が完全に別の場所にいると錯覚してしまう。
この圧倒的な画質と音質があれば、大画面テレビやプロジェクター、高価なオーディオなど間違いなく不要だろう。
ちなみにApple Vision Proを装着した状態でも部屋の様子が見えるのだが、これはカメラが撮影した映像を目の前のディスプレイに表示したものとなっている。
この実空間の再現性が高く、距離感や大きさなどが実空間と全く変わらない。目の前に手を出せば、ほぼリアルのような手が見えるし、椅子と机の間を通っても、足をぶつけることが全くない。映像で再現している部屋をディスプレイで見ているはずなのに、全く違和感がなく、歩き回れることに驚きだった。
これまでのメタバース端末はVRチャットやゲームなど盛り上がっているコミュニティであれば、毎日、使いたくなるものの、それ以外に継続的に使おうと思えるコンテンツが少なかったという弱点があったように感じる。
Apple Vision Proの場合、iPhoneユーザーが普段使っているアプリをそのまま使えるという点が大きい。iPhoneではどうしても画面は小さいが、Apple Vision Proであれば、目の前に大画面なアプリとして表示させ、Web閲覧などができる。実際、英語のサイトを見ても、小さい文字でもクッキリと読むことができた。最近、老眼気味の筆者の場合、アプリを大きく表示して、文字をしっかり読めるというだけで、Apple Vision Proを使い続けようという気になるほどだ。
また、Apple Vision ProでFaceTimeのビデオ通話を使うと、自分は当Apple Vision Proを装着しているのでカメラで自分を映せない。しかし、Apple Vision Proではあらかじめカメラで自分を撮影しておけば、Apple Vision Proが自身のアバターを作ってくれ、FaceTimeのビデオ通話に参加できるのだ。
実際に、Apple Vision Proを装着している人とFaceTimeで喋ってみたが、実にアバターが自然な表情で会話をし、瞬きなどもちゃんと再現されていたのに驚いた。しかも、ちょっと立体的に見えるので、近未来のビデオ通話といった感じで、毎日使いたくなるような感覚になった。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス