Appleは米国時間5月15日、「iPhone」や「iPad」向けの新たなアクセシビリティー機能を2024年内に提供開始すると発表した。
同社のグローバルアクセシビリティーポリシー&イニシアチブ担当シニアディレクターであるSarah Herrlinger氏は発表の中で、「これらの新機能は、コミュニケーション、デバイスの操作、そして世界を移動するための新たな方法を提供し、幅広いユーザーの生活に効果をもたらすだろう」と述べた。
Appleは「iOS」と「iPadOS」に、目の動きだけでiPhoneやiPadを操作可能にする「Eye Tracking」機能を追加する。この機能は、前面カメラを使って目の動きを追跡し、アプリを操作できるようにする。自社アプリとサードパーティーアプリの両方に対応するという。
Appleは聴覚障害者向けにMusic Haptics機能を提供する。この機能を有効にすると、iPhoneの「Taptic Engine」が曲に合わせてさまざまな振動を伝える。Appleによると、この機能は「『Apple Music』のカタログにある数百万曲の楽曲に対応する」という。
Appleは発表の中で、研究によると乗り物酔いの原因は多くの場合、目に見えるものと感じるものに差異があることだとした。この問題に対処するため、同社は新機能「Vehicle Motion Cues」を発表した。これは、乗り物の動きに合わせてiPhoneやiPadの画面の端の方にアニメーションでドットを表示するものだ。
「iPhoneとiPadに内蔵されたセンサーを使って、Vehicle Motion Cuesはユーザーが移動中の乗り物に乗っていることを認識し、それに反応する。この機能は、iPhoneで自動的に表示されるように設定することも、コントロールセンターで有効・無効にすることもできる」(同社)
新たな「Vocal Shortcuts」機能は、「特定の発話を割り当てる」ことにより、「Siri」がその発話を認識すると、ショートカットを起動してあらかじめ登録されたタスクを実行するというもの。
一方、「Listen for Atypical Speech」は、オンデバイスの機械学習を使ってユーザーの発話パターンを認識する。この機能により、「より幅広い発話に対して音声認識を強化できるようになる」という。
Appleの車載ソフトウェアであるCarPlayにも、新たなアクセシビリティー機能が追加される。まず「Voice Control」機能により、音声だけでCarPlayやアプリを操作できるようになる。「Sound Recognition」機能は、車のクラクションやサイレンが鳴ったときにCarPlayの画面にアラートを表示するもので、「Color Filters」は色覚異常のユーザー向けにCarPlayを使いやすくするものだ。
他にも、Appleはソフトウェアのアクセシビリティーを高めるために、さまざまな小さなアップグレードを提供する予定だ。その中には、デバイス上でコンテンツを読む際の「拡大鏡」の新機能、弱視ユーザー向けにテキストを拡大表示する「Hover Typing」機能、身体障害者向けにiPhoneやiPadの画面の一部だけを使ってソフトウェアを操作する「Virtual Trackpad」などがある。
Appleのプレスリリースこの記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」