公共交通機関で移動するときは「Smart Ride」を使用するが、それ以外の場合は、UberやLyftのアプリを使うという。
「移動の準備ができたら、UberかLyftを呼ぶだけで、自動車が自分の立っている場所まで迎えに来てくれる。ドライバーに運賃を払う必要もない(支払いはアプリを通して処理されるため)。この方がはるかに楽だ」(Kidkulさん)
アクセシビリティー開発の目的は、単に新しいボタンや機能を追加することだけではない。多くのアプリには、全盲者や視覚障害者の日常生活を楽にする技術が組み込まれている。
「Be My Eyes」アプリはビデオ通話によって、晴眼者のボランティアと、援助を必要とするユーザーを結び付ける。ライブ通話では、食品の賞味期限やカメラを向ける場所を確認したり、色を区別したり、説明書を読んだりするのを助けることができる。
Kidkulさんが毎日使用するSeeing AIアプリは、人工知能を使って商品のバーコードや商品名、説明書、通貨を読み取る。さらに、このアプリは色やさまざまな物体の違いを区別するのにも役立つ。友達を認識できるようにしたり、周囲の人間の特徴を説明したりすることも可能だ(表情を識別することもできる)。
2019年に入って、中国のエレクトロニクス大手の華為技術(ファーウェイ)は、AI顔認識ソフトウェアで7種類の感情を識別できる「Facing Emotions」アプリをリリースした。AIに加えて、Facing Emotionsは同社の「Mate 20 Pro」のカメラも使用して、感情を耳で伝わる音に変換する。
Instagramも、アプリを全盲者や視覚障害者が利用しやすいものにする取り組みで、大きな進歩を遂げている。Instagramの現行のアプリには、代替テキストとカスタムの代替テキストが含まれる。自動代替テキストは画面読み上げ機能と連携して、写真がどういうものなのかをユーザーに説明する。
音声コマンドをアプリに組み込むことで、より安全に運転するといったアクションや天気情報を取得するなどの単純な作業が容易になる。これは、全盲者や視覚障害者のアクセシビリティーに極めて大きな変化をもたらす。
2018年10月、Googleのアクセシビリティーチームは「Voice Access」アプリを発表した。このプログラムにより、ユーザーは「Android」デバイスを完全にハンズフリーで操作できる。Voice Accessは音声コマンドで作動し、機能やアプリに番号を割り当てる。ユーザーは「OK Google」と言って、テキストの入力や画面のスクロール、アプリの操作などを実行できるようになっている。
このアプリは体の不自由な人向けに設計されているが、全盲者や視覚障害者にも有用かもしれない。
この1年間に音声コマンド機能を追加または拡張したほかのアプリには、Android版YouTubeやPandoraなどがある。
GoogleはCES 2019で、Androidデバイスがロックされていても、「Googleアシスタント」が応答して機能するようになることを発表した。
Kidkulさんはライドシェアアプリと公共交通機関を利用しているが、将来的に、全盲者や視覚障害者にとってより大きな可能性があるのは、自動車の中かもしれない。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
企業や自治体、教育機関で再び注目を集める
身近なメタバース活用を実現する
OMO戦略や小売DXの実現へ
顧客満足度を高めるデータ活用5つの打ち手