iOS 11から見る「次期iPhoneの兆候」を考える - (page 3)

4. ARKitとVRと3Dセンサ

 AppleはiOS 11の目玉として、機械学習フレームワークのCoreMLと、拡張現実機能をライセンスなしでアプリに実装できるARKitを披露した。

 ARKitのデモは、とても先進的とは言い難く、非常に基礎的なものだった。テーブルを認識してそこに何かを配置したり、ゲーム盤を配置して遊ぶ、といったデモは、決して目新しいものではなかった。

 ただ、iPhone 7やiPad Proといった既存のカメラとモーションセンサを搭載するデバイスであっても、距離やサイズの測定には非常に正確であるという印象を受けた。

 ARKitを用いたデモとして有名になったメジャーを仮想表示するアプリでは、かなりの長さまで、実際に置かれているメジャーと同じ数字で計測できている点には驚かされる。

 しかし、ARKitだけでは実現できないこともある。認識する対象として披露されたのは床面やテーブル面だけで、壁面などに対する認識には触れられていなかった。空間的な認識については、言及を避けていた格好だ。

 実際にそうした認識や処理ができるデバイスの例に、Googleの拡張現実プラットホーム「Tango」に対応するLenovoやASUSのスマートフォンがあるが、これらには赤外線センサが搭載され、深度を計測する機能が搭載されている。

 もしもAppleがARの世界に本格的に取り組むとしたら、距離や深度を計測できるセンサをiPhoneにも取り込むべきだ。ちなみにiPhone 7 Plusの2つのカメラを用いて同様のことは可能となっており、デュアルカメラによって実現する可能性もある。

 3Dセンサを搭載するカメラの可能性はARだけでなく、前述の顔面認証にも用いられるため、背面だけでなく前面のカメラにも採用されるのではないだろうか。

 そしてもう1つ。AppleはWWDC 2017でiMac、MacBook Proの新製品をリリースしたが、iMacのデモではVR編集に耐えうる性能の高さを強調していた。しかし、Appleのソリューションで、ARやVRのコンテンツを撮影する製品はまだない。

 iPhone 8のカメラが3Dセンサに対応することで、撮影から編集までをApple製品で実現するエコシステムを完成できるようになる。

 そのため、例えばカメラであれば、空間の中に被写体が立体的に浮かび上がる新しい表現を実現したり、ARやVRの素材を撮影したりできるAPIを用意するといった進化がもたらされるのではないだろうか。

Appleのスマートホーム戦略--HomePodを入り口に
iOS 11に見るカメラ機能の進化--新コーデックHEIF、HEVCのメリットとは
CoreMLを搭載したiOS 11向けアプリで変化すること
個人間送金をサポートする「Apple Pay Cash」とは--iOS 11で導入へ
ロボット、AR、機械学習も--iOS 11で進化する「Swift Playgrounds」

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]