logo

グーグルの拡張現実メガネを動かす人工知能--専門家に聞くその役割と将来性 - (page 3)

Martin LaMonica (CNET News) 翻訳校正: 川村インターナショナル2012年04月13日 07時30分
  • 一覧
  • このエントリーをはてなブックマークに追加

 人工知能ソフトウェアに期待されるのは、情報をバックグラウンドで処理し、目的の情報を必要に応じて提供することだとHard氏は述べる。例えば、買い物をするときに、現在のコンピュータでは購入履歴に基づいたおすすめの商品が提示されるが、人工知能システムの場合は、大量のデータを選別して、非常に詳細な、パーソナライズされたレコメンデーションを提示する。

 「現在のテクノロジもこういった種類のサービスを提供しているが、多くの点で比較的荒削りであり、面白みに欠ける。ビッグデータや機械学習を用いることで、多くの変化が生まれるだろう」(Hard氏)

 Project Glassのメンバーの1人であるParviz氏は、ワシントン大学のバイオナノテクノロジの専門家で、ウェアラブルデバイスがいずれ医療診断で使われることになると予想している。同氏は2009年、拡張現実コンタクトレンズにバイオセンサを搭載して、眼球の液体から血糖値を測定し、その情報を伝送する方法を説明する論文をIEEE Spectrumに掲載した。

 Project Glassが熱烈な歓迎を受けたことから判断すれば、近い将来、拡張現実メガネを装着することがテクノロジファンにとって最高のファッション表現になるかもしれない。

 しかし、システムの出来が悪かったらどうなるのかと心配する、疑い深い人々も数多くいる。

 5日にTom Scott氏が公開した「Google Glasses: A new way to hurt yourself」(Google Glass:けがをする新しい方法)という動画は、絶え間なく流れてくる情報によって装着者の気が散ってしまうケースや、音声認識が裏目に出てしまうケースを示している。Rebellious Pixelsに掲載された別の動画では、Googleのデモ動画の上に、Google検索に基づいた広告が絶え間なく出現する

 AppleのSiriは、非常に多くの人々に人工知能のコンセプトに初めて触れる機会を与えた。Siriでは、デジタルパーソナルアシスタントがいくつかの作業をしてくれるほか、タッチやタイピングに代わるインターフェースの役割を果たす。そして今回、GoogleのProject Glassによって、われわれはウェアラブルデバイスに人工知能を組み込むことの潜在能力をうかがい知ることができる。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]