筆者は強度の近視だが、眼鏡やコンタクトレンズのおかげで普段そのようなハンデを意識せず生活できている。技術が進歩すれば、IBMとカーネギーメロン大学(CMU)が共同開発している視覚障がい者の行動を支援する「NavCog」が実用化され、目の見えない人も外出しやすくなるかもしれない。
今回紹介する「LTCCS」は、音声会話をテキスト情報にリアルタイム変換して小型ヘッドマウントディスプレイ(HMD)に表示する、聴覚障がい者向けの支援デバイス。現在クラウドファンディングサービス「Indiegogo」で支援募集中だ。
LTCCSは「Live-Time Closed Captioning System」の頭文字で、会話をリアルタイムに字幕化するクローズド・キャプション・システム。ウェアラブルディスプレイに会話文が字幕のように表示され、耳の不自由な人でも会話に参加できる。
ディスプレイは、眼鏡やサングラスに装着して使う。字幕表示部分は景色が透けて見えるので、視界が妨げられない。
付属マイクから取り込まれた会話は、スマートフォン程度の大きさをした「Raspberry Pi」ベースの処理モジュールで音声からテキストに変換される。テキスト情報は、無線でディスプレイに送られる。
Indiegogoでの目標金額は40万ドル。記事執筆時点(日本時間11月18日15時)で集まった資金はまだ2000ドル強。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」