CoreMLを搭載したiOS 11向けアプリで変化すること - (page 2)

  • 一覧
  • このエントリーをはてなブックマークに追加

マシンビジョンと自然言語処理

 Appleはアプリ開発者に対して、機械学習モデルを組み込めるCoreMLを用意したが、より多く活用されるであろうマシンビジョンと自然言語処理に関しては、Vision、Natural Languageの2つの専用フレームワークを用意している。


Visionフレームワークでは、顔面追従、顔面認識、ランドマーク認識、文字認識、矩形認識、バーコード認識、物体追従、画像登録といった処理を行える

 Visionフレームワークでは、顔面追従、顔面認識、ランドマーク認識、文字認識、矩形認識、バーコード認識、物体追従、画像登録といった処理を行える。

 たとえばライブのカメラの画像や写真から人の顔をトラッキングし、既に学習させたモデルを使って名前を表示する、といったアプリを手軽に作れるようになった。

 この人の顔の学習モデルは、たとえばPythonで学習させたモデルをツールを使って変換し、iPhoneアプリの開発環境Xcodeを使って簡単にSwiftコードに変換して利用できる。開発者は、iOS/macOSのアプリ開発のために、ゼロから学習モデルを作り直さなくても良い。

 既存の機械学習に取り組んでいた開発者をiOS・macOSプラットホームに呼び込むことができる点は、AppleのCoreMLにおける戦略と見ることができる。

アプリ開発の軸が1つ増える

 CoreMLでできないこともある。それは、アプリに組み込んだ機械学習モデルについて、アプリの使用を通じてユーザーが学習を進める機能は用意されていない、ということだ。

 そのため、開発者が学習モデルを進化させたい場合、新しいモデルを組み込んだアプリとしてバージョンアップを配信しなければならない。またユーザーのアプリ使用を通じて学習する場合は、アプリユーザーに対して協力を依頼するオプトインを行わなければならないだろう。

 この点は、ユーザーのデータを活用して賢くなる他の機械学習モデルとは異なる点であり、アプリ開発者からの不満のタネになるかもしれない。

 しかし考え方を変えれば、学習モデルの素早い更新が、アプリの価値になり得るとも言える。すでにApp Storeでは、同じカテゴリ、用途のアプリが大量に存在しており、今現在は、デザインや機能、価格、マーケティングなどによって、競争が行われている。今後Core MLを生かした世代のアプリになるにつれて、だんだん「学習モデル」も、その競争の軸に加わることになるだろう。

 学習モデルの設計がアプリの善し悪しに関係してくるなら、機械学習に強いエンジニアがアプリの成功に欠かせなくなってくる。アプリ開発に必要な人材や能力についても変化が生じてくることになる。そんな大きな変化がiOS 11向けアプリ開発を通じて、もたらされようとしている。

Appleのスマートホーム戦略--HomePodを入り口に
iOS 11に見るカメラ機能の進化--新コーデックHEIF、HEVCのメリットとは

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]