AppleはiOS 11の目玉として、機械学習フレームワークのCoreMLと、拡張現実機能をライセンスなしでアプリに実装できるARKitを披露した。
ARKitのデモは、とても先進的とは言い難く、非常に基礎的なものだった。テーブルを認識してそこに何かを配置したり、ゲーム盤を配置して遊ぶ、といったデモは、決して目新しいものではなかった。
ただ、iPhone 7やiPad Proといった既存のカメラとモーションセンサを搭載するデバイスであっても、距離やサイズの測定には非常に正確であるという印象を受けた。
ARKitを用いたデモとして有名になったメジャーを仮想表示するアプリでは、かなりの長さまで、実際に置かれているメジャーと同じ数字で計測できている点には驚かされる。
しかし、ARKitだけでは実現できないこともある。認識する対象として披露されたのは床面やテーブル面だけで、壁面などに対する認識には触れられていなかった。空間的な認識については、言及を避けていた格好だ。
実際にそうした認識や処理ができるデバイスの例に、Googleの拡張現実プラットホーム「Tango」に対応するLenovoやASUSのスマートフォンがあるが、これらには赤外線センサが搭載され、深度を計測する機能が搭載されている。
もしもAppleがARの世界に本格的に取り組むとしたら、距離や深度を計測できるセンサをiPhoneにも取り込むべきだ。ちなみにiPhone 7 Plusの2つのカメラを用いて同様のことは可能となっており、デュアルカメラによって実現する可能性もある。
3Dセンサを搭載するカメラの可能性はARだけでなく、前述の顔面認証にも用いられるため、背面だけでなく前面のカメラにも採用されるのではないだろうか。
そしてもう1つ。AppleはWWDC 2017でiMac、MacBook Proの新製品をリリースしたが、iMacのデモではVR編集に耐えうる性能の高さを強調していた。しかし、Appleのソリューションで、ARやVRのコンテンツを撮影する製品はまだない。
iPhone 8のカメラが3Dセンサに対応することで、撮影から編集までをApple製品で実現するエコシステムを完成できるようになる。
そのため、例えばカメラであれば、空間の中に被写体が立体的に浮かび上がる新しい表現を実現したり、ARやVRの素材を撮影したりできるAPIを用意するといった進化がもたらされるのではないだろうか。
Appleのスマートホーム戦略--HomePodを入り口にCNET Japanの記事を毎朝メールでまとめ読み(無料)
開発経験ゼロからのローコード開発で
医療ニーズに応えた病院向けシステムを構築
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス