アップル、WWDCでARメガネは未発表でも「iOS 15」で予兆? - (page 2)

Scott Stein (CNET News) 翻訳校正: 川村インターナショナル2021年06月22日 07時30分

「Live Text」とマップでもARが有益なツールに

 既にご存知かもしれないが、ARはユーザー補助にも利用できる。Googleは数年前から、ユーザー補助のARに力を入れており、GoogleマップとGoogleレンズでも、異なる方法を使ってナビゲーションをポップアップ表示したり、現実世界にある文字と物体を解析して情報を現実に重ねたりしている。

figure_2
Appleの「Live Text」はGoogleの「Googleレンズ」に似た機能だが、これはARにも役立つ技術だ。
提供:Screenshot/Apple

 そうした機能は、8年前にGoogleが「Google Glass」を発表して以来、ARメガネの目指す夢だった。AppleがiOS 15で同様の機能を導入するのも、ARを単なる不思議体験やショッピングの手段以上のものとして扱おうとしていることを示している。AR対応の便利なアプリは既に「App Store」で公開されているが、Apple独自のOSにはあまり組み込まれていない。マップとLive Textは、その統合の手始めのようだ。

「Object Capture」:Appleによる3Dスキャンの進化の予兆か

 WWDCで発表されたプロ向けツールでは、開発者が現実世界の物体から高解像度の3Dファイルを作成することができる。「iPhone」と「iPad」では既に、アプリや、LiDARなどのハードウェア機能を使って、驚くほど有能な3Dスキャンを実行できるが、スキャンの品質は心許ない場合がある。Appleはこれまで独自の3Dキャプチャソフトウェアを作っていないが、「Object Capture」がその第1弾となる。

 既存の3Dスキャンツールの多くは、画像キャプチャデータを3D深度のあるマップに対応させるが、Object Captureでは大量の写真(iPhone、iPad、その他でキャプチャしたもの)から高解像度の3Dファイルを生成する。その処理の部分は「Mac」で行われるので、最初は分断を感じさせる。iOSハードウェア、特に「M1」チップを搭載した「iPad Pro」なら、同様の処理をする十分な性能がありそうだ。

 Appleは現在、3D処理ツールとしてMacを頼りにしているが、それはAppleが今後の、さらに強力になるiPhoneやiPad上で3Dオブジェクトのキャプチャをどう扱うのかを探る足がかりにもなりうる。

 Object Captureツールは今のところ、極めて現実的な目的に使われており、AR対応のeコマースが2022年には始まる予定だ。仮想のショッピング体験が有効であることは、コロナ禍で既に証明されつつあり、AppleはObject Captureを使って3D商品のライブラリーの強化を計画しているらしい。その対象となるのは、例えば2021年秋に3Dショッピングの在庫拡充を計画している「Etsy」や、Appleのツールキットを使って、店舗で商品を売るメーカー用に独自のスキャンアプリを開発している「Wayfair」などだ。

 だが、いずれは一般ユーザーも3Dキャプチャを使うようになる日が来る。単にものを共有するだけではなく、ARに存在できるオブジェクトや世界を作れるようになるのだ。Appleはまだ、そうしたピースのすべてをハードウェアで展開する準備が整っていないようだが、Object CaptureによってMacはAR開発の環境に組み入れられることになる。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]