既にご存知かもしれないが、ARはユーザー補助にも利用できる。Googleは数年前から、ユーザー補助のARに力を入れており、GoogleマップとGoogleレンズでも、異なる方法を使ってナビゲーションをポップアップ表示したり、現実世界にある文字と物体を解析して情報を現実に重ねたりしている。
そうした機能は、8年前にGoogleが「Google Glass」を発表して以来、ARメガネの目指す夢だった。AppleがiOS 15で同様の機能を導入するのも、ARを単なる不思議体験やショッピングの手段以上のものとして扱おうとしていることを示している。AR対応の便利なアプリは既に「App Store」で公開されているが、Apple独自のOSにはあまり組み込まれていない。マップとLive Textは、その統合の手始めのようだ。
WWDCで発表されたプロ向けツールでは、開発者が現実世界の物体から高解像度の3Dファイルを作成することができる。「iPhone」と「iPad」では既に、アプリや、LiDARなどのハードウェア機能を使って、驚くほど有能な3Dスキャンを実行できるが、スキャンの品質は心許ない場合がある。Appleはこれまで独自の3Dキャプチャソフトウェアを作っていないが、「Object Capture」がその第1弾となる。
既存の3Dスキャンツールの多くは、画像キャプチャデータを3D深度のあるマップに対応させるが、Object Captureでは大量の写真(iPhone、iPad、その他でキャプチャしたもの)から高解像度の3Dファイルを生成する。その処理の部分は「Mac」で行われるので、最初は分断を感じさせる。iOSハードウェア、特に「M1」チップを搭載した「iPad Pro」なら、同様の処理をする十分な性能がありそうだ。
Apple's Object Capture on a Pineapple. One of my fav things to test Photogrammetry against. This was processed using the RAW detail setting.
— Mikko Haapoja (@MikkoH) June 8, 2021
More info in thread pic.twitter.com/2mICzbV8yY
Appleは現在、3D処理ツールとしてMacを頼りにしているが、それはAppleが今後の、さらに強力になるiPhoneやiPad上で3Dオブジェクトのキャプチャをどう扱うのかを探る足がかりにもなりうる。
Object Captureツールは今のところ、極めて現実的な目的に使われており、AR対応のeコマースが2022年には始まる予定だ。仮想のショッピング体験が有効であることは、コロナ禍で既に証明されつつあり、AppleはObject Captureを使って3D商品のライブラリーの強化を計画しているらしい。その対象となるのは、例えば2021年秋に3Dショッピングの在庫拡充を計画している「Etsy」や、Appleのツールキットを使って、店舗で商品を売るメーカー用に独自のスキャンアプリを開発している「Wayfair」などだ。
だが、いずれは一般ユーザーも3Dキャプチャを使うようになる日が来る。単にものを共有するだけではなく、ARに存在できるオブジェクトや世界を作れるようになるのだ。Appleはまだ、そうしたピースのすべてをハードウェアで展開する準備が整っていないようだが、Object CaptureによってMacはAR開発の環境に組み入れられることになる。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
「もったいない」という気持ちを原動力に
地場企業とともに拓く食の未来