Microsoft米国時間5月7日、開発者向けカンファレンス「Build 2018」でさまざまなことを発表した。その1つが、「Azure IoT Edge」ランタイムのオープンソース化だ。これにより、ユーザーは変更やデバッグをこれまでより簡単にできるようになる。
Azure IoT Edgeは、ネットワークの境界に位置するシンプルなセンサやコンピュータによって収集されたデータから、有用な情報を得られるように設計されたクラウドサービスだ。このようなデータは今急速に増えつつあるが、Azure IoT Edgeを使えば、そのデータを中央処理システムに送る必要がなくなる。このランタイムはIoT Edgeデバイス上で動作し、各デバイスに搭載されたモジュールを管理する。
Microsoftはまた、画像認識サービスの「Custom Vision」をAzure IoT Edgeで利用できるようにした。これにより、ドローンや産業用機器などで、視覚に関連した機能を、クラウドに接続していないときでも実行できるようになる。Microsoftによれば、Custom Visionは、いくつかある同社の認知サービスのうち、エッジデバイスで動作する初めてのサービスとなる。他のサービスについては、「これから数カ月のうち」に対応する予定だ。
さらにMicrosoftは、ドローンベンダーのDJIと提携し、「Windows 10」搭載PC用のソフトウェア開発キット(SDK)をリリースする。このキットを使えば、ユーザーはドローンの飛行を細かく制御したり、データをリアルタイムでWindows 10デバイスに送信したりできるようになるとMicrosoftは説明している。両社はまた、Azure IoT EdgeとAIを活用して、農業や建設業、治安維持などの分野に向けた商用ドローンソリューションを共同で開発するという。
このBuildカンファレンスでは、MicrosoftとQualcomm Technologiesが提携し、Azure IoT Edgeを実行する視覚AI開発キットをリリースすることも発表された。このキットは、Azure IoT Edgeと「Azure Machine Learning」サービスを活用した、カメラベースのIoT製品の開発に必要なハードウェアとソフトウェアで構成される。
Microsoftは、車載アシスタント製品、ホームアシスタント製品、スマートスピーカ、その他の音声対応デバイスを手がけるメーカーを対象に、「Speech Devices SDK」もリリースする。このキットの狙いは、複数の音源からの音声を処理し、より正確な音声認識機能、ファーフィールド音声機能、ノイズキャンセリング機能を実現することだ。
同社はこの日、「Project Kinect for Azure」も発表した。この新しいKinectはエッジAI向けに設計され、次世代深度カメラなどの複数のセンサにオンボードのコンピュータハードウェアを組み合わせたパッケージになるという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」