Appleはアプリ開発者に対して、機械学習モデルを組み込めるCoreMLを用意したが、より多く活用されるであろうマシンビジョンと自然言語処理に関しては、Vision、Natural Languageの2つの専用フレームワークを用意している。
Visionフレームワークでは、顔面追従、顔面認識、ランドマーク認識、文字認識、矩形認識、バーコード認識、物体追従、画像登録といった処理を行える。
たとえばライブのカメラの画像や写真から人の顔をトラッキングし、既に学習させたモデルを使って名前を表示する、といったアプリを手軽に作れるようになった。
この人の顔の学習モデルは、たとえばPythonで学習させたモデルをツールを使って変換し、iPhoneアプリの開発環境Xcodeを使って簡単にSwiftコードに変換して利用できる。開発者は、iOS/macOSのアプリ開発のために、ゼロから学習モデルを作り直さなくても良い。
既存の機械学習に取り組んでいた開発者をiOS・macOSプラットホームに呼び込むことができる点は、AppleのCoreMLにおける戦略と見ることができる。
CoreMLでできないこともある。それは、アプリに組み込んだ機械学習モデルについて、アプリの使用を通じてユーザーが学習を進める機能は用意されていない、ということだ。
そのため、開発者が学習モデルを進化させたい場合、新しいモデルを組み込んだアプリとしてバージョンアップを配信しなければならない。またユーザーのアプリ使用を通じて学習する場合は、アプリユーザーに対して協力を依頼するオプトインを行わなければならないだろう。
この点は、ユーザーのデータを活用して賢くなる他の機械学習モデルとは異なる点であり、アプリ開発者からの不満のタネになるかもしれない。
しかし考え方を変えれば、学習モデルの素早い更新が、アプリの価値になり得るとも言える。すでにApp Storeでは、同じカテゴリ、用途のアプリが大量に存在しており、今現在は、デザインや機能、価格、マーケティングなどによって、競争が行われている。今後Core MLを生かした世代のアプリになるにつれて、だんだん「学習モデル」も、その競争の軸に加わることになるだろう。
学習モデルの設計がアプリの善し悪しに関係してくるなら、機械学習に強いエンジニアがアプリの成功に欠かせなくなってくる。アプリ開発に必要な人材や能力についても変化が生じてくることになる。そんな大きな変化がiOS 11向けアプリ開発を通じて、もたらされようとしている。
Appleのスマートホーム戦略--HomePodを入り口にCNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」