「Google Lens」がついにスマートフォンに登場した。この新技術は、ユーザーが自分の周りの世界について情報を得る方法を変えるとうたっている。
Google Lensは、Googleによって5月に発表された。Google Lensを利用すると、ユーザーは現実世界のさまざまなものにスマートフォンのカメラを向けて、被写体に関する詳細な情報を得ることができる。例えば、本の表紙をカメラで撮影すると、購入方法や出版元、最新のレビューなどの情報がポップアップ表示される。
1つ注意事項がある。Google Lensは少なくとも現在のところ、Googleの新スマートフォン「Pixel 2」「Pixel 2 XL」でしか動作しない。Pixel 2は米国で10月19日から発売されている(現在のところ日本での発売予定は無し)。GoogleはPixel 2のGoogle Lensを「プレビュー」と呼んでおり、このソフトウェアはやがてほかの「Android」搭載スマートフォンへも提供される予定だという。ただし、具体的な時期は明かされていない。Google Lens部門を統括するAparna Chennapragada氏は先頃のインタビューで、同ソフトウェアが将来的にはAppleの「iPhone」でも動作できるようになる可能性を示唆した。
Googleがカメラベースの検索機能の開発を試みたのは、今回が初めてではない。Android向けのビジュアル検索アプリ「Google Goggles」は2009年に公開されたが、2014年以降、アップデートされていない。2012年に発表された「Google Glass」は、ヘッドセット装着者の目の前に情報やグラフィックスを重ねて表示した。しかし、プライバシーや肖像権侵害行為への懸念の声もあり、この1500ドルのデバイスはプロトタイプ段階を脱する前に見事に失敗してしまった。
それでも、Google Lensは、同社が拡張現実(AR)分野に投入する初の本格的な製品のように感じられる。拡張現実とは、デジタルグラフィックスを現実世界に重ねることだ。Googleの過去の試みが失敗に終わってから、多くのことが変わった。音声認識や顔認識の性能は大幅に向上した。スマートフォンはより高負荷のコンピューティングを処理できるようになった。
Chennapragada氏は、「カメラを、ユーザーが周りの世界を見るためのブラウザにすることは可能だろうか、とわれわれは考えた」と話す。
Googleのライバルたちもこの分野に参入している。ARを、ティーンエイジャーや若者が現在使うような形で開拓したSnapchatは先頃、「Context Cards」を発表した。これはある種のビジュアル検索機能で、例えば、レストランの画像を含む「スナップ」(投稿)から、そのレストランのレビューを確認したり、店までの配車サービスをLyftなどで手配したりできる。Appleは「ARKit」と呼ばれるARプラットフォームを提供しており、ソフトウェアの開発元はそれを使って「iPhone」向けアプリを開発することができる。Facebookも開発者が同ソーシャルネットワーク向けアプリを開発できるように、「Camera Effects Platform」と呼ばれる同様のプラットフォームを提供している。
だが、テクノロジ業界の大手他社がいろいろと試みるなか、Googleは19年に及ぶ検索サイト運用の歴史が、同社にとって有利にはたらくと期待している。「Googleが、最大の実績を基盤に有していることは間違いない。極めて有望に見える」と、Jackdaw Researchの主任アナリストJan Dawson氏は分析している。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス