スプレッドシートを編集するときは、手に持った小さなオレンジ色の四角いデバイスに向かって、グレーのボタンを押しながらこう話すだけでよかった。「このスプレッドシートを書き写して、列Bと列Cを入れ替えて」。そうすると、ほぼ一瞬で、メールの受信箱に変更されたスプレッドシートが届く。驚くほど見事な機能だ……そう感じたのは最初だけで、すぐに、1列目の語句が切り詰められていることに気づいた。
「rabbit r1」を使ってみた筆者の体験は、大体そんな感じだった。rabbit r1は、アプリを搭載せず人工知能(AI)を使ってタスクを処理する、199ドル(約3万1000円)のハンドヘルドデバイスである。いろいろな機能がうまく動き、創設者のJesse Lyu氏がこのデバイスを「Pokedex」(1990年代に米国で発売された玩具)の「現実世界」版と呼ぶ売り文句に納得できる瞬間もあった。
だが、期待どおりに機能しなかったときの方が、はるかに多い。「Uber」や「Doordash」など、現在rabbit r1で使えるサービスにしても、スマートフォン上で操作するよりずっと制限があるように感じる。それも、とりあえず機能したとしてだ。ニューヨーク市の街を観光したときは、一部のランドマークを識別できないこともあったし、インターネット接続が切れることもあった。バッテリーの持続時間もひどく短かった(編集部注:その後のアップデートで改善されている)。
rabbit r1は小型のハンドヘルドガジェットで、操作は主に音声コマンドで行う。ユーザーがアプリを使うのではなく、OSの土台として動くソフトウェアが、AIを使ってユーザーの代わりにデジタルアプリおよびサービスの操作方法を学習する、とLyu氏は説明している。斬新なコンセプトだが、やがてはこの形態が普及して、将来的には何か操作するとき主流の形になる、というのがLyu氏の考えだ。
そう考えているのは、Lyu氏だけではない。rabbit r1を事前予約したファンたちは、米国時間4月23日にニューヨークで開催された発表イベントに、一番乗りで実機に触れようと列を成した。筆者が列に並びながら話を聞いた男性などは、わざわざマサチューセッツ州から車で駆けつけたということだった。
しかし、現行バージョンのrabbit r1は、そうした崇高な目標に手が届いていない。Uberで車を呼べるし(少なくとも、そのはずだ)、Doordashで料理を注文できる。「Midjourney」で画像を生成することも、「Spotify」で楽曲を再生することもできる。質問に答える、発話を翻訳する、カメラを使ってビジュアル検索エンジンになるなど、いろいろな機能がある。斬新で興味深いものの、その操作の多くは、現在のスマートフォンと比べるとやはり劣って感じる。全体的に、rabbit r1はまだ道なかばであり、これまでにうたわれてきたAI革命というよりは、将来性に対する賭けといった印象を受ける。
rabbit r1で成功している点が1つあるとすれば、それはデザインだ。サイズは一般的なスマートフォンの半分ほどで、本体は楽しげな明るいオレンジ色。2.88インチの小型ディスプレイを備え、ナビゲーション用のスクロールホイールと、800万画素のカメラを搭載する。SIMカードスロットもあり、セルラー通信にも対応するが、筆者はWi-Fiネットワークと自分のスマートフォンのモバイルホットスポットに接続して使った。
rabbit r1は、teenage engineeringと共同でデザインされており、懐かしさを感じさせつつ、どこか未来感もかもし出している。筆者はこれを見て、ホラー映画「イット・フォローズ」に出てきたクラムシェル型の携帯端末を思い出した。映画の中では、登場人物の1人が文字どおり貝殻のような形をした電子ペーパー風画面のモバイルデバイスを使うシーンがあるのだ。rabbit r1は、形状がそれと似ているわけではないのだが、どちらも、過去から来たようにも、同時に未来から来たようにも感じさせるハンドヘルドの電子機器というイメージを作り出している。
そのサイズから、話しかけるときにはトランシーバーのような感じもする。rabbit r1の主な操作方法を考えれば、これはきっと意図的なのだろう。片手の手のひらに収まるほど小さく、ちょうどサムスンの「Galaxy Z Flip5」を閉じた状態と似ている。
rabbit r1のデザインが重要なのは、単に外見上の理由からだけではない。そのデザインが、使い方を決定づけている。ディスプレイはかなり小さいので、スマートフォンのようにユーザーの意識を引く存在ではない。スマートフォンを使っているときよくあるように、意味もなくOSまわりを見るとか、暇つぶしにアプリを起動するとか、そんな気を起こさせる画面ではないのだ。どのアプリを開くかではなく、意図したタスクを実行するにはどんな質問をすればいいのかをユーザーに考えさせる作りになっている。
新種のガジェットなので、使うのには慣れが必要だ。例えば筆者も、使い始めた初日には、設定メニューを開くときは2回振るということを忘れていた。カメラのインターフェースも、起動時と同じ操作で終了することに気づかなかった。どちらもサイドボタンの2度押しだ。その他の操作は、感心するくらい自然でうまくできている。スクロールホイールで画面の輝度やボリュームを調整できるのも、その1つだ。
rabbit r1のセットアップはいたって簡単で、インターネットに接続し、QRコードを読み取ればいい。最大限に活用するには、ユーザーに代わって実際に何かを処理させるために、各種のデジタルサービスと紐づける必要がある。各サービスへの接続は、「rabbithole」というオンラインポータルを介して行うが、4月末時点で選べるサービスとして表示されるのは、Spotify、Uber、Doordash、Midjourneyだけである。ただし、Lyu氏の基調講演によると、2024年の夏以降には相当数の新機能と各種サービスとの連携が予定されており、「Yelp」「Amazon Music」「Apple Music」などもその対象になっている。また、カレンダーや連絡先、リマインダー、ショッピングなどの機能も含まれるという。
ログイン時には、こうした各種サービスで提供される認証システムを使う。つまり、ユーザーのログイン認証情報をrabbitが直接処理したり保存したりすることはない。ウェブブラウザーでウェブサイトにログインするときに近い感覚だ。Lyu氏によると、ユーザーからのリクエストは、それを処理する言語モデルによって直接扱われるので、そのときの語句がrabbitに知られる、あるいは保存されることはないという。
rabbit r1のカメラは、スマートフォンのカメラとは目的が異なる。大切な瞬間や出来事を記録するのではなく、周辺の世界について学習することが最大の目的だ。近くにあるものにカメラを向けて質問するだけで、それが何かを特定して、質問に答えるように作られている。実際に試すには、rabbit r1を持って丸1日ロウアーマンハッタンを観光してみるのが一番いいと考え、それを実行してみた。
ランドマークについて調べる、次の目的地までの移動時にUberで配車を依頼する、近くのコーヒーショップを探すなど、あらゆることにrabbit r1を使ってみた。ほとんどの場合、最後にはスマートフォンに頼ることになったが、rabbit r1が、求めていた答えをくれたことも何度かあった。1つは、ワシントンスクエア公園の入口にあるアーチに向けたときで、それがワシントンスクエア公園の凱旋門だと識別しただけでなく、周囲の景観まで説明してくれた。アクセシビリティーに関する補助デバイスとしての将来性を感じた。
とはいえ、その日rabbit r1が一貫して識別できたランドマークは、この凱旋門だけ。ニューヨーク証券取引所も、バッテリーパークの海岸沿いに立つキャッスル・クリントン記念碑も認識できなかった。代わりにrabbit r1が教えてくれたのは、筆者がおそらく目にしている建造物に関する最大限の推測だった。証券取引所については、「壮大な歴史的建造物で、おそらくは行政機関か金融機関」と描写した。キャッスル・クリントンの方は、「歴史的に著名な建造物、あるいは名所」と答えたが、それ以上の説明はなかった。
rabbit r1の答えは、カメラを向ける角度と位置、それからフレームに他に何が写っているかによっても変わってくる。それが分かったのは、ウォール街近くにある有名なチャージングブルの像を識別させようとしたときだった。1回目は正解を出したものの、2回目3回目には識別できなかったのである。おそらく、映り込んでいる観光客が多すぎたためだろう。
ビジュアル検索ツールとして使うのは楽しいが、同じような機能はGoogleの「Gemini」と「Googleレンズ」にもある。筆者のクリアブルーの「NINTENDO64」にカメラを向け、その発売年を尋ねたときには(rabbit r1のレトロテーマを考えれば、ちょうどいい質問だと思ったのだ)、rabbit r1と「Pixel 8 Pro」上のGoogle Geminiでほぼ同じ答えが得られた。
後編に続く。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス