Googleは米国時間1月17日、画像とテキストを組み合わせるマルチ検索機能の強化を発表した。カメラを向けるか画像をアップロードして「Google」アプリで質問すると、視覚的に合致する検索結果だけでなく、人工知能(AI)を活用した情報を受け取れるようになる。
同社は、アメジストのスクリーンショットをアップロードし、「なぜ紫色なのか?」と質問するデモでこの機能を紹介した。その結果、写真のみに基づくAI生成の回答が表示された。
利用するには、「Android」版または「iOS」版の「Google」アプリで「Googleレンズ」のアイコンをタップし、画像を選んで質問を追加するだけだ。
この機能は今週から、米国の英語版ユーザーを対象に提供される。米国外では、Googleの「Search Generative Experience(SGE)」からプレビューが可能だ。
Googleは同日、「Circle to Search」機能も発表した。これは、Androidデバイスの画面上で何かを丸で囲んだりタップしたりすることで検索できるというものだ。
例えば、「TikTok」を閲覧していて、あるインフルエンサーの動画で見たアクセサリーが気に入った場合、ホームボタンかナビゲーションバーを長押ししてCircle to Searchを呼び出し、そのアクセサリーを丸で囲むだけで、類似商品の検索結果が表示される。
この機能は一部の高性能Androidスマートフォンが対象で、まず1月31日から「Pixel 8」「Pixel 8 Pro」および新しい「Galaxy S24」シリーズ向けに提供される。
Googleの発表この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス