グーグル、検索をより直感的に--シーン探索、マルチ検索の拡充など

Stephen Shankland (CNET News) 翻訳校正: 佐藤卓 長谷睦 (ガリレオ)2022年05月12日 13時20分

 Googleが米国時間5月11日、年次開発会議「Google I/O 2022」で、オンライン画像や店舗内で撮影した写真を手がかりとして利用する、2種類の新しい検索機能を発表した。これは、検索窓にテキストを入力するだけにとどまらず、はるかに多くの機能を実現しようとする同社の取り組みの一環だ。

Google Search Explorer details products on a busy store shelf.
Googleの「scene exploration」で、店舗で棚に並ぶ商品の詳細を確認できる。
提供:Screenshot by Stephen Shankland/CNET

 新機能の1つは「scene exploration」(シーン探索)だ。スーパーマーケットやドラッグストアの棚に並ぶ製品にカメラを向けるだけで、ファインダー内の製品が識別される。さらに、それぞれの製品の情報や評価がオーバーレイ表示され、例えば「ナッツが入っていないスナック菓子」や「無香料の化粧水」などを見つけられるようになる。検索技術を担当するシニアバイスプレジデントのPrabhakar Raghavan氏が説明した。この機能は「Google Lens」アプリを拡張したものだ。

 Raghavan氏は、「シーン探索は、デバイスが私たちのように理解し、私たちの周りにある世界のコンテキストでオーバーレイされた関連情報を見ることができる強力な機能だ」と述べた。「皆さんの周りにある世界で、一段と強力な「Ctrl+F」(検索のショートカット)を利用できるようにしたようなものだ」(Raghavan氏)

 また、テキストと画像を1つのクエリーに組み合わせて検索できるGoogleのマルチ検索(multisearch)機能が拡張されている。ユーザーは「near me」(自分の近く)というテキストを追加すれば、検索結果を自分の現在位置に近いものだけに絞り込むことができる。例えば、知らない料理の写真と「near me」という単語を組み合わせれば、その料理を提供している近所のレストランが見つかるとRaghavan氏は説明した。マルチ検索で地元の情報を検索できるこの機能は、年内に英語で提供される予定だ。

 さらにGoogleは、新しい10段階のスキントーンスケール「Monk Skin Tone Scale」を同社の製品に採用することを明らかにした。これは、人工知能(AI)のトレーニングデータや検索結果などさまざまな分野で、多様性をより的確に反映させるための取り組みでもある。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]