Googleが米国時間5月11日、年次開発会議「Google I/O 2022」で、オンライン画像や店舗内で撮影した写真を手がかりとして利用する、2種類の新しい検索機能を発表した。これは、検索窓にテキストを入力するだけにとどまらず、はるかに多くの機能を実現しようとする同社の取り組みの一環だ。
新機能の1つは「scene exploration」(シーン探索)だ。スーパーマーケットやドラッグストアの棚に並ぶ製品にカメラを向けるだけで、ファインダー内の製品が識別される。さらに、それぞれの製品の情報や評価がオーバーレイ表示され、例えば「ナッツが入っていないスナック菓子」や「無香料の化粧水」などを見つけられるようになる。検索技術を担当するシニアバイスプレジデントのPrabhakar Raghavan氏が説明した。この機能は「Google Lens」アプリを拡張したものだ。
Raghavan氏は、「シーン探索は、デバイスが私たちのように理解し、私たちの周りにある世界のコンテキストでオーバーレイされた関連情報を見ることができる強力な機能だ」と述べた。「皆さんの周りにある世界で、一段と強力な「Ctrl+F」(検索のショートカット)を利用できるようにしたようなものだ」(Raghavan氏)
また、テキストと画像を1つのクエリーに組み合わせて検索できるGoogleのマルチ検索(multisearch)機能が拡張されている。ユーザーは「near me」(自分の近く)というテキストを追加すれば、検索結果を自分の現在位置に近いものだけに絞り込むことができる。例えば、知らない料理の写真と「near me」という単語を組み合わせれば、その料理を提供している近所のレストランが見つかるとRaghavan氏は説明した。マルチ検索で地元の情報を検索できるこの機能は、年内に英語で提供される予定だ。
さらにGoogleは、新しい10段階のスキントーンスケール「Monk Skin Tone Scale」を同社の製品に採用することを明らかにした。これは、人工知能(AI)のトレーニングデータや検索結果などさまざまな分野で、多様性をより的確に反映させるための取り組みでもある。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス