「iPhone」と「iPad Pro」の注目機能「LiDAR」をもっと楽しむ - (page 2)

Scott Stein (CNET News) 翻訳校正: 編集部2022年02月16日 07時30分

iPhone 12 Proと13 ProのカメラはLiDARと相性が良い

 フォーカスの精度や速度を上げるためにToF方式カメラを採用するスマートフォンが増えているが、iPhone 12 Proも例外ではない。Appleは低照度性能の向上をうたい、明るさの足りない場面で最大6倍速いオートフォーカスを実現したと豪語する。LiDARの深度センサーはナイトポートレートモードの効果も高める。

 フォーカスの改善は歓迎すべき進化だし、iPhone 12 Proなら3D写真合成も楽しめるようになるだろう。この機能はまだ本格展開されていないが、アプリを使えば、Apple端末の前面に配置された深度測定可能なTrueDepthカメラですでに同じようなことができる。今後もサードパーティから斬新なアイデアを実現したアプリが登場するだろう。変化はすでに始まっているのだ。

ARを大幅強化

 LiDARを搭載したことで、iPhoneとiPad ProはARアプリを素早く起動し、部屋を手早くマッピングしてディテールを追加できるようになった。AppleのコアなAR技術の多くはLiDARを利用して現実世界にある物の後ろに仮想オブジェクトを隠したり(オクルージョンと言う)、テーブルや椅子の上に仮想オブジェクトを配置したりすることが可能になっている。

 私はこれを、Apple Arcadeのゲーム「Hot Lava:灼熱のホットラバ」で試している。同ゲームはLiDARを使って部屋や室内の障害物をスキャンする。私はこの技術を使って階段に仮想オブジェクトを置いたり、部屋にある物の後ろにオブジェクトを隠したりすることもできた。今後、多くのARアプリがLiDARを活用して、リッチな体験をユーザーに提供するようになるだろう。

 しかし、LiDARははるかに大きな可能性を秘めた技術であり、幅広い用途が考えられる。多くの企業が、仮想世界のオブジェクトと現実世界のオブジェクトを融合させるヘッドセットの開発を夢見ている。Facebook、Qualcomm、Snap、Microsoft、Magic Leap、そしておそらくはAppleなどの企業も開発を進めていると言われるARグラスは、高度な3Dマップ上に仮想オブジェクトを配置することになるだろう。

Snapchat
Snapchatの次世代レンズ
提供:Snapchat

 こうした3Dマップは、現在は特殊なスキャナーや機器を使って作成されている。例えるなら、Googleマップの撮影車で世界をスキャンしているようなものだ。しかし、個人が所有するデバイスでも、こうした情報をクラウドソーシングしたり、データをその場で追加したりすることが可能になるかもしれない。前述したように、Magic LeapやHoloLensのようなARヘッドセットはすでに、ユーザーの環境をスキャンした上でオブジェクトを重ねているし、AppleがLiDARを使って実現しているAR技術も同じように動作している。その意味では、iPhone 12/13 ProとiPad Proはいわば「ヘッドセット部分のないARヘッドセット」であり、2022年か2023年に登場すると言われるApple初のVR/ARヘッドセットへの道を開くものとなるだろう。LiDARの可能性を予見させるヘッドセットの1つが「Varjo XR-3」だ。このハイエンドヘッドセットはLiDARを利用して複合現実(MR)を実現している。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]