アップル「Vision Pro」はなぜ「Apple Intelligence」に対応しないのか

Scott Stein (CNET News) 翻訳校正: 石橋啓一郎2024年06月18日 07時30分

 最近開催されたAppleの開発者向けカンファレンス「WWDC24」では、話題の半分が今秋に「Mac」や「iPad」、「iPhone」に導入される高度な人工知能(AI)サービスの未来に関するものだった。この対象に含まれていないのが、1年前のWWDCで発表されたあるApple製品だ。

Apple Vision Pro
提供:Numi Prasarn/Viva Tung/CNET

 その製品「Apple Vision Pro」は、厳密に言えばまだ発売から4カ月しか経っていないが、1年前に発表された時から世間で大きな注目を集めてきた。Appleがコンピューティングの未来の形だと位置づけるVision Proは、強力な「M2」チップを内蔵した自己完結型のデバイスであるため、スマートフォンやノートPC、タブレットが主流の現在のコンピューティングの世界を塗り替える可能性を十分に備えている。

 ところが、2024年のうちにVision Proが生成AIの機能に対応することはないことが明らかになった。「Apple Intelligence」は、Appleのハードウェアやクラウドを利用した一連のAIサービスであり、「iPhone 15 Pro」に搭載されている「A17 Pro」チップや、iPadやMacに使われているMシリーズのチップに対応する予定になっている。Vision ProにもM2チップが搭載されていることを考えれば、Apple Intelligenceに対応するデバイスの1つに数えられても不思議ではなかった。ところが、今回はそこから漏れた。「visionOS 2」は複数の小規模なアップグレードを受けているが、筆者がVision Proとって重要な機能になるはずだと考えている、生成AIに関する機能追加はまだない。

 Appleは今後、Apple Intelligenceが利用できるプラットフォームを増やす予定だと述べている。現時点でリストに含まれていない中で、最も目立った存在がVision Proと「Apple Watch」であり、次に対応するのはこれらの製品になるのかもしれない。しかし筆者は、Vision Proがこのアップグレードを受ける最初のデバイスに含まれていないことを、非常に残念に思っている。なぜなら、この先進的なヘッドセットは、複合現実(MR)の新しいアイデアを世に問うためのアーリーアダプター向けの製品だからだ。従って、AIに関しても実験的なデバイスであるべきではないだろうか。

 ひょっとすると、Vision Proの複雑さや普及度の低さが、第2陣以降に回された理由なのかもしれない。

 Vision Proは、これからようやく米国以外の市場に出回り始めるところであり、6月と7月に新たに8カ国で発売される(日本も含まれる)。もしかしたら、入手できる市場が限られており、販売台数が比較的少ないことが理由で対応が後回しにされたのかもしれない。

 あるいは、Vision Proはハンドトラッキングやアイトラッキング、いくつもの内部カメラや外部カメラなどの他のデバイスとは異なる入力方式を備えているため、AIの活用方法を吟味するのが格段に難しいことも判断に影響した可能性がある。「Siri」がもっと賢くなってくれれば、Vision Proには非常に役に立つだろう。筆者がVision Proを使うときには、iPadやMacを使っているときよりもSiriをよく使っている。これは、アプリの起動やテキストの入力、検索などを音声で行っているからで、その方が目や手を使うよりも早い。

 また、Vision Proは複雑であるため、AIを実行する際のプロセッサーに対する負荷が大きい可能性もある。Vision Proのチップに搭載されている「Neural Engine」は、室内の状況を常にスキャンし、アイトラッキングやハンドトラッキングの入力を処理し、カメラのライブ入力に仮想的なグラフィックをオーバーレイとして表示するためにも使われている。Vision Proでは多くの処理が同時に行われており、サードパーティーアプリがヘッドセットの内蔵カメラに自由にアクセスすることさえ許されていない。

 筆者は、生成AIの将来は、マルチモーダル化によってさらに面白いものになると考えている。そうなれば、カメラやマイクを使って、ユーザーが見たり言ったりしていることをリアルタイムで把握できるようになるはずだ。「Ray-Ban Metaスマートグラス」や「Humane Ai Pin」などの今までのウェアラブルAIデバイスでもカメラで世界を「見る」ことはできたが、それらはその時のスナップショットを撮り、その場で分析するだけだった。自分を取り巻く世界についての説明やアドバイスが得られるのは素晴らしいことだが、今の技術にはまだ荒削りなところがある。

 Appleはまた、Vision Proに搭載されているカメラへのアクセスを解放する必要があるだろう。Vision Proのサードパーティーアプリは今のところ、新たに発表された企業向けAPIを使用して構築しない限り、カメラを使ってユーザーを取り巻く世界を見ることはできない。アクセスがこの水準に制限されているのは、AppleがVision Proの処理に対する負荷を管理しようとしていることを示しているのかもしれない。いつでも使える生成AIを導入すれば、さらに複雑さが増すことになる。

 とすれば、より高度なプロセッサーを搭載した次世代Vision Pro(報道によれば2025年後半に登場する可能性がある)でなければ、本格的なApple Intelligenceの受け皿にはならないのだろうか。現時点ではすべてが憶測にすぎないが、現在のVision Proには生成AIを動かすだけのパワーがあるように見える。

 Appleは今後、Vision Proのカメラに対するアクセスをさらに開放することになるはずだ。これは、Metaなどの他の仮想現実(VR)/拡張現実(AR)ヘッドセットメーカーについても同じことが言える。生成AIによるMRの根本からの変革はそれからが本番なのかもしれないが、現時点でもAIの有益な使い方はある。

 Siriが改善されれば非常に有用だろうし、クリエイティブなコンテンツの制作やコーディングに利用しても大きな効果があるはずだ。Metaの最高技術責任者(CTO)であるAndrew Bosworth氏は、近い将来に「Meta Quest」デバイスで可能になるかもしれないAIの使い道について言及している。Appleも、Vision Proへの生成AI搭載に早く着手すべきだ。もしVision Proが未来のコンピューティングの形なら、Appleの未来のソフトウェアサービスも利用できる必要があるのではないだろうか。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]