「App Clip」と呼ばれるiOS 14の新機能は、NFCタグやQRコードの読み取りでアプリの一部をすぐに起動できるというものだ。非接触で使えるサービスが増えると考えればいい。App ClipはAR体験の起動にも使える。つまり、特定のARアプリをダウンロードしなくても、NFCをタップするかQRコードを読み取ることでAR体験を利用できるということだ。例えば小売店はこの機能で直接触れられない商品を客に見せられるし、美術館は展覧会を拡張できる。さまざまな活用法が考えられる。これは、既存のAppleのARショッピングツールを拡張するだろう。これまではアプリをインストールするか、ウェブページを開く必要があったが、NFCタグかQRコードで起動できるのだ。
私は2019年、オーディオこそがARのカギだと考え始めた。バーチャルな物体を見るためにスマートフォンを持ち上げたりARメガネを装着するよりも、イヤホンからの音声キューで環境情報を伝える方が手軽だ。その方がずっと面倒くさくないし、後から視覚ARを起動するオプションを含めてもいいだろう。結局、われわれは既にヘッドフォンを装着したままオーディオバブルの中で暮らしているのだ。
AppleはAirPodsを没入型未来の実験の場として使うことがあるようだ。iOS 14では、AirPods Proで空間オーディオ機能が使える。これは、モーショントラッキング技術によって、ユーザーの頭の動きに合わせてオーディオを配置する機能だ。今のところ、iPhoneやiPadでサラウンドサウンドを聴くための機能であり、AppleはAirPods Proの空間オーディオをARKitにはまだ統合していない。だが、この機能はオーディオAR体験にも適用できる。ARメガネと組み合わせれば完璧だ。BoseがオーディオARに取り組んでいたが、実験を2020年で終了してしまった。Appleがその後を継ぐかもしれない。
ARKit 4の多数の新機能の1つ「ビデオテクスチャー」は、「Magic Leap」などのARヘッドセットで見たことのあるものだ。AR内で動画を映写できる。これは、宙に浮くテレビ画面として使ったり、立体モデル上に動く動画アバターをマッピングしたりすることに利用できる。今のところ、iPhoneやiPadで見るARのリビングに宙に浮くテレビ画面をわざわざ表示するのは、ばからしい。iPhoneやiPadそのものが小さなテレビ画面のようなものだからだ。だが、ARメガネであれば、これはばからしくはまったくない。
動画アバターのアイデアも魅力的だ。今のところARとVRは、仮想世界でリアルな人間の顔を表現するのがあまり得意ではない。たいていは、マンガかパペットのようになってしまう。バーチャル版Zoomのような会議アプリ「Spatial」においてさえ、アバターはユーザー本人を雑に真似た人形のように見える。動画をマッピングしたアバターは、将来のAR版「FaceTime」で出会うホログラムの友人への第一歩になるだろう。
さて、AppleにAR(あるいはVR)での何かしら大規模なことを期待するとしても、それは今すぐには起きない。Appleヘッドセットはない。Appleメガネもない。なんと、既存のARヘッドセットをAppleのデバイスに接続することすらできない。だが、AppleのARツールは、ヘッドセットもないにもかかわらず、かなり進歩している。AppleのARヘッドセットがいつ登場するかは、これまで以上にはっきりしないが、当面は現行のiPad ProがAppleのAR開発キットとしての役割も担い続けることになりそうだ。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
「もったいない」という気持ちを原動力に
地場企業とともに拓く食の未来