Appleは米国時間5月16日、Global Accessibility Awareness Dayを前に、認知、視覚、聴覚、身体機能のアクセシビリティーを高めることを目的に設計された、「iPhone」「iPad」「Mac」向けの複数の新機能をプレビューした。これらの機能は、2023年後半に提供される予定だ。
そのうちの1つである「Live Speech」は、言葉を発せない人やさまざまな言語パターンや障害を持つ人を対象とした機能で、ユーザーが言いたいことを文字で入力すると、それを音声で伝えてくれるというもの。この機能は、対面での会話のほか、電話や「FaceTime」での通話でも使用できる。iPhone、iPad、Macで動作し、端末に内蔵されている任意の音声(「Siri」など)を使用する。例えば、「はじめまして。私は...です」のように自己紹介でき、「ブラックコーヒーをいただけますか」などのよく使うフレーズを保存しておくこともできる。
この機能をさらに一歩進めたのが「Personal Voice」で、話す能力を失うリスクのある人が、自分の声に似た合成音声を作成し、文字で入力したフレーズの読み上げにその音声を使用できるというもの。Personal Voice は、オンデバイスの機械学習を使用する。一連のテキストをiPhoneまたはiPad上で15分間読み上げることにより、この機能をトレーニングする。
iPhoneの「拡大鏡」アプリにも、「Point and Speak」という新機能が追加された。視覚障害者は、テキストラベルの付いた物体を指差すことにより、端末にそのテキストを読み上げてもらえる。例えば、電子レンジのボタンの識別に利用可能だ。Point and Speakは、スマートフォンのカメラ、LiDARスキャナー、オンデバイスの機械学習を使用して、ユーザーが指差したさまざまな物体のテキストを発見して認識する。「人の検出」「ドア検知」「画像説明の取得」など、拡大鏡の他の機能と併用でき、視覚障害者や弱視の人が周囲環境を把握しながら移動できるよう支援する。
「Assistive Access」は、認知障害を持つ人を対象とした機能で、端末のインターフェースを絞り込むことでユーザーの認知負荷を軽減する。例えば、iPhoneの「ホーム」画面や「電話」「メッセージ」「カメラ」「写真」「ミュージック」のテキストラベルを大きく表示し、ボタンのコントラストを高くする。視覚的なコミュニケーションを望むユーザーは、絵文字だけのキーボードをメッセージで使用したり、ビデオメッセージを録画して送信したりできる。
2023年中に提供予定のその他のアクセシビリティー機能としては、「Made for iPhone」の聴覚デバイスをMacと直接ペアリングする機能や、「Finder」、メッセージ、メール、カレンダー、メモなどのMacアプリで文字サイズの調整がしやすくなる機能などがある。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
地味ながら負荷の高い議事録作成作業に衝撃
使って納得「自動議事録作成マシン」の実力
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス