「Ray-Ban Metaスマートグラス」のマルチモーダルAI機能、ベータ版が提供開始

Scott Stein (CNET News) 翻訳校正: 編集部2024年04月24日 10時39分

 筆者はここ数カ月、人工知能(AI)を搭載する「Ray-Ban Metaスマートグラス」をかけて生活し、歩き回り、内蔵のカメラを使って対象物を識別してきた。そしてこのほど、一部の一般ユーザーも同じことができるようになった。Metaの発表によると、この機能は米国時間4月23日からベータ版として北米で提供される。2023年に同製品が発売されてから約6カ月後というタイミングだ。

Ray-Ban Metaスマートグラス
提供:Scott Stein/CNET

 「マルチモーダル」AIと呼ばれるこの生成AI機能は、音声プロンプトに反応し、カメラを通して対象物を認識して説明したり、文字を翻訳したりできるという。この機能は、Humaneの「Ai Pin」に搭載されているものと似ているが、Ray-Ban Metaスマートグラスは価格が約半分でサブスクリプションも不要だ。

 Metaはまた、「WhatsApp」と「Messenger」の通話で動画をライブ配信できるようにする。これにより、見ているものを何でも相手に見せることができる。一種の即席テレプレゼンスであり、相手に体験を共有したり、助言を求めたりできる。

 Metaはまた、新デザインのフレームや、低めの鼻梁に対応するブリッジ、そしてFerrariとの提携による限定版も発表した。

 Metaの最高技術責任者(CTO)であるAndrew Bosworth氏は最近、Metaのハードウェアに搭載されるAIについて自身の考えを語り、次は自社の仮想現実(VR)ヘッドセットに生成AIを搭載する可能性を示唆した。Ray-Ban MetaスマートグラスとそのAIアシスタント機能は、2024年内に幅広いヘッドセットに搭載されるであろう機能の実現に向けた一歩なのかもしれない。

Metaの発表

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]