注目のiOS11

CoreMLを搭載したiOS 11向けアプリで変化すること

  • このエントリーをはてなブックマークに追加

 AppleがWWDC 2017で発表した「iOS 11」は、当日から開発者向けのプレビューが始まり、6月26日から登録したユーザーを対象にしたパブリックプレビュー版が公開された。

 バックアップは必須で、メインのデバイスには入れないことをおすすめするが、一般ユーザーも秋にリリースされるiOS 11の機能をいち早く試せる。

 iOS 11のインターフェースの刷新については別の記事で触れるが、iOS 11をサポートするアプリがあって初めて実現できる機能も数多く盛り込まれている。拡張現実アプリを実現するARKitや、今回ご紹介する機械学習を活用できるCoreMLもその機能に含まれる。


拡張現実アプリを実現し機械学習を活用できるCoreML

CoreMLの最大の特徴とは

 今回のWWDC 2017でAppleがiOSやmacOSに盛り込んだ新機能を見渡してみると、直近のモバイル向けの最新技術に対して「Appleはどうするんだろう?」という疑問のほぼ全てに答えている。

 たとえばVRについては、Metal 2と最新のiMacや外部グラフィックスキットによって、Macでのオーサリング環境を実現している。もちろん、秋に登場する次期iPhoneに、VRに関連する撮影やコンテンツ消費の機能が盛り込まれる可能性も高い。

 またARについても、前回の記事で紹介したとおり、ARKitをiOS 11に盛りこみ、ライセンス不要で開発者がARを実装する実装できるようになった。

 加えて今回のテーマとなっている、機械学習についても、Appleなりの答えをCore MLで出した。Appleの機械学習環境の最大の特徴は、「既存のデバイス」で、「既存の機械学習モデル」を、「オフライン」で実行できる点だ。

 CoreMLが動作するのはMac、iPhone、iPad、Apple Watch、Apple TV。ウェアラブルデバイスのApple Watchアプリですら、機械学習モデルを用いたアプリを実行できるようになった。


CoreMLが動作するのはMac、iPhone、iPad、Apple Watch、Apple TV

 しかも、各デバイスの中で処理が行われるため、クラウドにデータを投げて処理を返してもらう必要はない。この点は、Appleが強調してきたプライバシーへの配慮を、機械学習の活用にも適用したかたちとなる。

 特に明言はしていないが、Apple TVと同じA8プロセッサを搭載するスマートスピーカ、HomePodでも、CoreMLのモデルを活用したプログラムが動作することになるだろう。

  • このエントリーをはてなブックマークに追加