「iPhone」と「iPad Pro」の注目機能「LiDAR」をもっと楽しむ

Scott Stein (CNET News) 翻訳校正: 編集部2022年02月16日 07時30分

 「iPhone 12 Pro」「iPhone 13 Pro」、そして2020年以降の「iPad Pro」モデルに搭載されているLiDARは、Appleが推す技術だ。これらの端末を裏返し、背面に並んだカメラをよく見ると、レンズの近くにフラッシュと同じくらいの大きさの小さな黒い点がある。これがLiDARセンサーだ。このセンサーが実現する新たな深度予測は、写真や拡張現実(AR)、3Dスキャンだけでなく、さまざまな用途に活用されることになるかもしれない。

iPhone 12 ProのLiDARセンサー
iPhone 12 ProのLiDARセンサー
提供:Patrick Holland/CNET

 Appleの狙い通りに行けば、「LiDAR」は今後、ますます注目されることになるだろう。LiDARセンサーはすでにARヘッドセットや自動車に搭載されている。では、これは必須の機能なのかというと、そうとも限らない。今回の記事では、LiDARについて今分かっていること、Appleが考えている用途、今後の展開を整理する。このテクノロジーで今、何ができるのかを知りたい人は、私の体験が参考になるかもしれない。

LiDARとは何か

 LiDARは「light detection and ranging(光による検知と測距)」の頭文字をとった言葉で、特に新しい技術ではない。レーザー光を対象物に照射し、その反射光が戻ってくるまでの時間(光パルスの飛行時間)をもとに、対象物までの距離を測る。

LiDARはどのようにして深度(奥行き)を予測するのか

 LiDARはTime of Flight(ToF)方式で測定する。1回の光パルスで深度を測定するスマートフォンもあるが、この種のLiDAR技術を搭載したスマートフォンは、光パルスで赤外線ドットを放射し、その1つ1つをセンサーで測定することで各ドットまでの距離をマッピングし、空間とその中にあるオブジェクトを「メッシュ化」する。光パルスは人間の目には見えないが、暗視カメラでは捉えることができる。

iPhoneの「Face ID」のようなものか

 似ているが、もっと長い距離を計測できる。しかし、基本的なアイデアは同じだ。Face IDに対応したAppleの「TrueDepth」カメラも赤外線レーザーを照射するが、せいぜい数十cm先までしか届かない。それに対して、iPad ProとiPhone 12 Proの背面に搭載されたLiDARセンサーは、最大5m先まで届く。

LiDARはすでに多くの技術分野で活用されている

 LiDARは、あらゆる場所で使われている。自動運転車、運転支援システム、ロボット工学、ドローン。「HoloLens 2」のようなARヘッドセットも同様の技術を使って室内の空間をスキャンした上で、3Dの仮想オブジェクトを空間に重ねている。LiDARを搭載したVRヘッドセットさえある。この技術は、それなりに長い歴史を持っているのだ。

 Microsoftはかつて「Kinect」という深度センサー内蔵の「Xbox」用アクセサリーを販売していた。Kinectは赤外線による3Dスキャンが可能な深度カメラだ。Kinectの開発を支援したPrimeSenseは2013年にAppleに買収された。現在、Appleのデバイスには顔をスキャンするTrueDepthセンサーやLiDARセンサーが搭載されている。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]