先ごろ発表されたAppleの取り組みを示す2つの研究論文によると、同社は人工知能(AI)技術に深く傾注しているようだ。アニメーション化が可能なアバターを生成する画期的な方法や、メモリー容量に限りのあるデバイスで大規模言語モデル(LLM)を運用する新たな方法など、オンデバイスAI技術の開発にAppleが取り組んでいることが、この研究で示されている。
メモリー容量に限りのあるデバイスにおけるLLMの効率的な運用に関するAppleの研究は、「LLM in a flash」(この「flash」は「瞬間」という意味と「フラッシュメモリー」をかけている)という表題にふさわしく、複雑なAIアプリケーションを「iPhone」や「iPad」のようなデバイスで円滑に実行できるようにするもののようだ。生成AIを活用した「Siri」をデバイス上で実行することも視野に入れている可能性がある。例えば、Siriがデバイス上で、さまざまなタスクを迅速に手助けしたり、テキストを作成したりするほか、自然言語の処理能力も向上することが考えられる。
もう1つの研究論文「HUGS:Human Gaussian Splats」は、短い動画からアニメーション化が可能なアバターをわずか30分で生成する手法に関するもの。HUGSは、数秒間の短い動画を用いてトレーニングし、ユーザーが好きなようにアニメーション化できる精巧なアバターを生成することが可能なニューラルレンダリングのフレームワークだ。
Appleが独自の社内用AIチャットボット「Apple GPT」に取り組んでいるとされる件について、これまでに何度か報道されている。今回の新たな研究は、iPhoneのような比較的小型で性能が低いデバイスのフラッシュメモリーを使ったLLMの運用について、同社が進歩を遂げていることを示している。これによって高度な生成AIツールをオンデバイスで利用することが可能になるかもしれず、生成AIを活用したSiriが登場する可能性もある。
切望されているSiriの改良だけでなく、論文で説明されているような効率的なLLMの推論が実現できれば、より利用しやすい生成AIツール、モバイル技術の大幅な進歩、日常的に使うデバイスにインストールしている各種アプリケーションの性能向上につながる可能性がある。
2つの論文のうち、より大きな進歩といって差し支えないHUGSは、単眼カメラで撮影したわずか数秒の動画、正確に言えば50〜100フレームの動画から、柔軟性のあるデジタルアバターを作成できる手法だ。このプラットフォームは、人間や背景シーンの特徴を解きほぐす手法(disentangled representation)を用いるため、これらの人間アバターをアニメーション化して、さまざまなシーンに配置できる。
Appleによると、HUGSは人間アバターのアニメーション化でこれまでの研究より優れており、トレーニングは従来の方法より100倍速く、かかる時間はわずか30分と大幅に短縮されたという。
iPhoneのカメラと処理能力を活用してアバターを作成できるようになることは、ソーシャルメディア、ゲーム、教育、拡張現実(AR)アプリケーションにおいて、iPhoneユーザーに新たなレベルのパーソナライゼーションとリアル感をもたらす可能性がある。
HUGSは、6月の「Worldwide Developers Conference(WWDC)」で発表されたヘッドセット「Apple Vision Pro」のデジタルペルソナ(アバター)に見られる不自然な要素を大幅に解消できる可能性もある。Vision ProユーザーはHUGSの能力を生かし、60fpsのレンダリングで流れるように動く非常にリアルなアバターを作成できるようになるかもしれない。
HUGSは高速なため、滑らかなAR体験に不可欠なリアルタイムレンダリングも可能になり、ユーザーが制御するリアルなアバターを使ってSNSやゲーム、プロ用アプリケーションを強化できる可能性もある。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス