視覚障がい者の一人歩きをスマホとビーコンで支援--IBMとカーネギーメロン大

 IBMの研究開発部門であるIBM Researchとカーネギーメロン大学(CMU)は、視覚障がい者が自力で歩いたりショッピングしたりできるよう支援するため、スマートフォン向けアシスタントアプリ制作用のプラットフォーム「Human-scale Localization Platform(HULOP)」を開発した。

 さらに、試作したHULOPベースのiOS版ナビアプリ「NavCog」を、App Storeで無償提供する予定だという。

 NavCogは、スマートフォンに搭載された各種センサの機能と、CMUキャンパスの各所に設置されたBluetoothビーコンからの情報を組み合わせて道案内するアプリ。

 キャンパス内であれば、屋内でも屋外でもナビが可能。ドアの位置や進む方向などの案内情報は、イヤホンを通じて音声で具体的に伝えたり、スマートフォンのバイブレーションを使って示したりする。


スマホとビーコンでナビゲーション(出典:IBM、CMU)

 開発グループは、スマートフォンのカメラで撮影された物体を認識してユーザーに教える機能や、超音波センサとカメラを使って近づく知人を発見し、名前や表情から読み取った感情を伝える機能も追加したいとしている。


「ポテトチップです」「チョコです。昨日たくさん食べたから今日はリンゴにしましょう」(出典:IBM、CMU)

出会った知人の名前や表情まで伝えたい(出典:IBM、CMU)

 IBMフェローの浅川智恵子氏は、「私のような視覚障がい者は、オンライン活動なら自力でできるようになってきた。しかし、現実世界は今も困難な状況が続いている。より自立し、生活の質を向上させるには、ユビキタスな接続性を屋内と屋内に張り巡らさなければならない」と述べる。

 さらに、同氏は「私の目標はキャンパス内を歩き回るだけでなく、旅行や映画、ウィンドウショッピングを楽しめるようになること」と話した。


開発について語る浅川氏(出典:IBM、CMU)

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]