運悪く、鎖骨を折ってしまった。だが、片腕を吊った状態でもテクノロジーのおかげで日常生活を送れることが分かったのは、その不運な経験から得た大きな収穫だった。
何よりも便利なのが、キーボードを使わずに文字を入力できる音声認識ツールだ。特別賞として、スマートフォンのスワイプ入力、生体認証、パスワードマネージャーも称えたい。
腕を吊った生活が既に2週間続いており、さらに4週間は続くという身になった今、筆者は身体が不自由な人にとってのアクセシビリティー技術のありがたさを痛感している。物を持ち上げたり、ベルトを締めたりできないというもどかしさがある反面、話した言葉がほとんど魔法のように画面に表れるのを見たときに感じる自由は、なかなか得がたいものだ。
恥を忍んで報告すると、筆者は何ということもないトレイルをマウンテンバイクで走っているときに転倒してしまった。鎖骨骨折というのは、サイクリストが転倒するとき片腕を伸ばしていてよく起こすケガなのだ。
このケガのせいで、右腕と右手の動きが大きく制限されている。手術で痛みはだいぶ和らぎ、動かせる範囲も広がったが、今でもほぼ常に片腕しか使えない。ノートPCに向かって両手でタイピングできるようになるまでには2週間かかった。その間に、ディクテーション技術、つまり音声入力とか音声認識とも呼ばれる技術をにわかに評価するようになった。
音声認識は、人工知能(AI)、すなわち人間の脳のはたらきなどを基盤にした技術の優れた応用例のひとつだ。AIベースの音声認識は、筆者が使っている「Android」端末にも、「iPhone」と「MacBook」にも「Chromebook」にも、そして一部のウェブブラウザーや「Windows」ノートPCにも組み込まれている。これまで音声認識の技術は、外出中に短いテキストメッセージや返信メールを送るときに使うくらいだった。鎖骨を折った今では、文字入力が必要な場面では必ず、音声認識を使うようになっている。
意外だったのは、音声認識の技術がスマートフォンとノートPCの生産性ギャップを縮めるという発見だ。タッチタイピングに慣れた人間にとって、スマートフォンの小さい画面とノートPCのキーボードは、比較にならないほど別物である。ところが、マイクに向かって話すとなると、スマートフォンは大抵、PCと互角になる。Googleによると、音声入力の方が、スマートフォンのキーボードをちまちま打つより3倍速いという研究結果があるという。
ディクテーション技術に関しては、AppleよりGoogleの方が筆者は好みだ。単語の認識、スペリング、大文字小文字の使い分けの信頼性が高く、Appleよりも長い時間に対応する。筆者のMacBookでは、ほとんど数文ごとに読み上げをやり直さなければならず、思考の流れを阻害されてしまう。Appleが推奨している音声の長さは、40秒だ。
Googleの「Chrome OS」には、音声認識の機能が内蔵されているが、聞き取りの時間が短いので、テキストをすばやく連続して話す場合に最適だろう。Microsoftの内蔵の音声認識技術は、十分に試せなかった。
ノートPCを使うときに筆者がたちまち気に入ったのが、「Googleドキュメント」に組み込まれている音声認識機能だ。聞き取り精度、パラグラフ単位の文章の入力、キーボード操作との統合という点で筆者にとっては最適だった。テキストの書式設定、カーソルの移動、単語の選択、文字の削除といった操作に対応する音声制御機能を備え、平均的なスマートフォンの音声認識より優れている。ただし残念なことに、これは「Google Chrome」で文書を開かなければ使えない。
ディクテーションは、今日のアクセシビリティー技術の一角にすぎない。Androidの「Voice Access」アプリやiPhoneの「音声コントロール」は、音声コマンドで端末を操作できる機能だが、どちらも筆者は試していない。左手は不自由なく使えるので、タッチスクリーン操作を補助するAppleの「AssistiveTouch」のような機能も必要なかった。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」