Googleは米国時間12月10日、人工知能(AI)による画像認識を応用した高度な検索機能「Googleレンズ」を「iOS」ユーザーにも提供開始すると発表した。「Android」向けには3月に公開されたGoogleレンズは、iOSではこれまで「Googleフォト」アプリでしか使えなかった。
それが今回、「iPhone」と「iPad」でも、写真を撮影してカメラロールからこの機能を使うのではなく、「Google」アプリの検索バー内に表示されるGoogleレンズのアイコンをタップできるようになった。
Googleレンズは画像内のテキストを認識することが可能で、単語を調べたり、メールアドレスを保存したり、電話番号を読み取って発信したりできる。また、買い物の検索にも役立つものとなっている。
使い方は簡単で、検索バーの右側、マイクアイコンの隣にあるGoogleレンズの四角いアイコンをタップするだけだ。すると、iPhoneのカメラが起動し、ユーザーが詳しい情報を知りたがっていると推測されるアイテムの上に青いドットを表示する。
オブジェクトやテキストをタップすると、画像の下に、Googleのほかのアプリと似た「カード」に検索結果が表示される。
Googleレンズの機能を最初に使えるようになったのはAndroidユーザーで、特に「Pixel」スマートフォンの所有者には真っ先に提供された。Googleはその後、ほかのデバイスにも徐々に提供範囲を広げている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス