「iPhone 12 Pro」「iPhone 13 Pro」、そして2020年以降の「iPad Pro」モデルに搭載されているLiDARは、Appleが推す技術だ。これらの端末を裏返し、背面に並んだカメラをよく見ると、レンズの近くにフラッシュと同じくらいの大きさの小さな黒い点がある。これがLiDARセンサーだ。このセンサーが実現する新たな深度予測は、写真や拡張現実(AR)、3Dスキャンだけでなく、さまざまな用途に活用されることになるかもしれない。
Appleの狙い通りに行けば、「LiDAR」は今後、ますます注目されることになるだろう。LiDARセンサーはすでにARヘッドセットや自動車に搭載されている。では、これは必須の機能なのかというと、そうとも限らない。今回の記事では、LiDARについて今分かっていること、Appleが考えている用途、今後の展開を整理する。このテクノロジーで今、何ができるのかを知りたい人は、私の体験が参考になるかもしれない。
LiDARは「light detection and ranging(光による検知と測距)」の頭文字をとった言葉で、特に新しい技術ではない。レーザー光を対象物に照射し、その反射光が戻ってくるまでの時間(光パルスの飛行時間)をもとに、対象物までの距離を測る。
Just experimenting w iPhone 12 Pro and 3D copies pic.twitter.com/0LiwaomYhb
— Scott Stein (@jetscott) October 22, 2020
LiDARはTime of Flight(ToF)方式で測定する。1回の光パルスで深度を測定するスマートフォンもあるが、この種のLiDAR技術を搭載したスマートフォンは、光パルスで赤外線ドットを放射し、その1つ1つをセンサーで測定することで各ドットまでの距離をマッピングし、空間とその中にあるオブジェクトを「メッシュ化」する。光パルスは人間の目には見えないが、暗視カメラでは捉えることができる。
Trying some of the LiDAR-enabled AR apps I can find for the 2020 iPad Pro, to show meshing. Here’s one called Primer, an early build to test wallpaper on walls pic.twitter.com/SatibguyTm
— Scott Stein (@jetscott) April 14, 2020
似ているが、もっと長い距離を計測できる。しかし、基本的なアイデアは同じだ。Face IDに対応したAppleの「TrueDepth」カメラも赤外線レーザーを照射するが、せいぜい数十cm先までしか届かない。それに対して、iPad ProとiPhone 12 Proの背面に搭載されたLiDARセンサーは、最大5m先まで届く。
— Scott Stein (@jetscott) October 22, 2020
LiDARは、あらゆる場所で使われている。自動運転車、運転支援システム、ロボット工学、ドローン。「HoloLens 2」のようなARヘッドセットも同様の技術を使って室内の空間をスキャンした上で、3Dの仮想オブジェクトを空間に重ねている。LiDARを搭載したVRヘッドセットさえある。この技術は、それなりに長い歴史を持っているのだ。
Microsoftはかつて「Kinect」という深度センサー内蔵の「Xbox」用アクセサリーを販売していた。Kinectは赤外線による3Dスキャンが可能な深度カメラだ。Kinectの開発を支援したPrimeSenseは2013年にAppleに買収された。現在、Appleのデバイスには顔をスキャンするTrueDepthセンサーやLiDARセンサーが搭載されている。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス