アップルは危機感を抱くべき--「Google I/O」の発表に見るグーグルの勢い

Jessica Dolcourt (CNET News) 翻訳校正: 川村インターナショナル2017年05月30日 07時30分

 Googleは年次開発者会議「Google I/O 2017」において、一連の興味深い技術革新をGoogleの世界に向けて披露した。Appleは恐怖で震えているはずだ。

 Googleは「Google Assistant」を通してAIを、「Google Lens」を通して画像の検索と検出を、「Instant Apps」を通してウェブ検索を、「Google for Jobs」を通して検索を大幅に進化させている。

 言い換えると、Googleのエコシステムは、Appleのエコシステムよりうまくやってのける状態まで来ている。ソフトウェアとハードウェアが緊密に統合されているAppleのエコシステムは、「Siri」やVR、スマートホーム、自動車のダッシュボード(これらについては後で詳しく説明する)に関して言えば、技術革新のペースという点でGoogleに後れをとっている。

 ディープな情報データベースを活用するGoogleのアプローチは、プラットフォームを所有して、ほかの企業がそれをベースに何かを構築することを望むのに対し、Appleは、完全で信頼性の高いパッケージを自社で管理することを望む。歴史的に見ると、Appleのこのアプローチは、あらゆることを「正しく」行うために、より長い時間がかかることを意味する。

figure_1
提供:CNET

 米国時間6月5日に開催されるAppleの開発者会議で、同社は「iPhone」向け「iOS」や「MacBook」、Siri AI、スマートウォッチ(もしかするとスマートホームも)の進化について発表し、Google(と活力を取り戻したMicrosoft)に反撃するチャンスを得られる。

 しかし、GoogleはGoogle I/Oで、Appleに強烈な挑戦状をたたきつけた。本記事では、Appleが危惧すべき理由、そして、同社が6月のWWDCで最善を尽くす必要がある理由を解説する。

現在、GoogleがAppleより優れている分野

 バーチャルアシスタント:Googleの音声検索ツールはしばらく前からAppleのSiriを上回っている。Google Assistantは多くの場合、Siriより精度が高く、より的を射た答えを返す。次世代のGoogle Assistantでは、クエリをキーボードで入力したり、Google Lens(後述)で物体を認識したりできる機能が近いうちに提供される予定だ。近い将来、Google Assistantと会話して、昼食を注文できるようになるかもしれない。Google AssistantはiPhoneでも利用可能になる。

 スマートホーム:「Google Home」には、Amazonの「Echo」をも一気に追い抜くような、興味深い機能が多数追加された。具体的には、Google Homeに話しかけるユーザーに基づいて応答をパーソナライズするようになるほか、ハンズフリーの通話機能も導入される。Appleには「HomeKit」の統合があるが、あらゆるものを連携させるGoogle Homeのようなリビングルームのハブにはまだなっていない(いずれ実現するとのうわさはある)。

 画像:議論の余地はあるものの、「Googleフォト」にはいくつかのクールなアップデートが施された。だが、群を抜いて興味深い変更点は、Google Lensに関連するものだ。Google Lensは基本的に、カメラを通して見た物体や場所を認識する。Google LensはまずGoogleフォトおよびGoogle Assistantと統合する。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]