音声認識は、句読点の扱いに関してはまだ前途遼遠だ。カンマ、ピリオド、疑問符、コロンを追加するのはまず問題ないが、引用符となると「iOS」はしくじることが時折あり、Googleはさらに劣る。どちらもキーボードのようにはいかない。
大文字小文字の使い分けも、依然として苦手だ。厄介なのは分かっているが、Googleはなぜ、疑問符に続く最初の1文字を小文字で始めようとするのだろう。新しい文が始まると予測できるはずなのだが。
誤字脱字や文字起こしの不備も多く、例えばGoogleは「nitpick」を「knit pick」と間違ってつづっていた。
こうした間違いをすべて修正するのは実に面倒で、特にスマートフォンだとカーソル合わせに苦労する。ショートメッセージくらいなら、修正せずに送信してしまうことも多い。今どきはもう、誤字脱字やオートコレクトによる誤記がスマートフォンには付き物だと大体の人が了解しているからだ。音声入力になっても、そうした不備がちょっと増えるだけである。
Googleは、バグレポートやユーザー調査、カンファレンスといったフィードバックの仕組みを通じて、音声認識技術の改良を進めているという。2021年内に、AndroidとGoogleドキュメントで音声認識が改善される予定だとしているが、詳細は発表されていない。
一番の問題については、一方的にテクノロジーを責められない。自分の思考法に問題がある。筆者は、音声入力を使いながら文章を組み立てるのが不得意なのだ。音声認識技術の直線的な構造が、おそらく自分のライティングスタイルとなじまない。思考があちこちに飛ぶし、編集しながら再編成することもある。
そのほかにも、助けられた機能がいくつかある。
生体認証は、指紋でも顔でも、パスワードを入力する代わりとして便利な方法だ。
筆者は以前からパスワードマネージャーをお勧めしているが、片腕が使えなくなってみて、そのありがたかさが改めて身にしみている。ただし「1Password」に関しては、「1Password X」ブラウザープラグインの「Touch ID」サポートを復活させてほしい。1PasswordのメーカーであるAgileBitsは、Touch IDのサポートに取り組んでいるが、それが実現するまでは、いやおうなくパスワードを入力しなければならない。
スマートフォンのキーボードを一筆書きのようになぞるスワイプ入力が便利なことも分かった。初めはAndroid端末で、次はiPhone内蔵のスクリーンキーボードとGoogleの「Gboard」アプリで、慣れるまでには数年かかった。今では、片腕だけ使ってスマートフォンの画面で入力するときに、特に便利だと感じている。
もうひとつ、筆者が改めて見直すことになったのが、スマートスピーカーとデジタルアシスタントだ。音楽を再生するとき、カレンダーに予定を入力するとき、テキストメッセージを送信するとき、マップのナビゲーションを始めるときなどに「OK, Google」を使う頻度が増えた。電話をかけるときには「Hey, Siri」を使う。これらは、運転している間のハンズフリー操作を想定した機能だが、骨がくっつくのを待つ間のハンズフリー操作にも便利なことが明らかになった。
現在利用できる豊富なアクセシビリティー機能、特にスマートフォンのアクセシビリティー機能を考えれば、筆者は間違いなくライトユーザーだろう。スクリーンリーダー、ハイコントラスト表示、そして音声入力にとどまらない高度な音声制御などすべてが、今ではスマートフォンの標準機能になっている。
アクセシビリティー技術は、急速に進歩しつつある。筆者は、高速道路でTesla車にハンドル操作を委ねたときにその未来を少し体感した。将来的にはもっと多くのことを任せられるようになるだろう。視覚障害のある人のために、Facebookは写真の注釈、Instagramは動画のキャプションをAIで生成しており、iPhoneのLiDARセンサーは人が近づくと知らせてくれる。音声認識は、ブラウザーの標準機能になっている。Android端末には、吠えている犬、水が出っぱなしの蛇口、警告音を発している機器などを聴覚障害者に通知する機能がある。
やがては、デジタル機器に直接ニューロンをつないで、人とのコミュニケーションや周囲の感知、環境の制御などにさらに利用できるようになるのかもしれない。だが、腕の固定具が取れるまでの4週間、当面の間は、しゃべった言葉が目の前にスクリーンに表れるのを見て楽しむことにしよう。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)