アップル、アクセシビリティー機能を強化へ--機械学習などを活用

Abrar Al-Heeti (CNET News) 翻訳校正: 編集部2023年05月17日 09時59分

 Appleは米国時間5月16日、Global Accessibility Awareness Dayを前に、認知、視覚、聴覚、身体機能のアクセシビリティーを高めることを目的に設計された、「iPhone」「iPad」「Mac」向けの複数の新機能をプレビューした。これらの機能は、2023年後半に提供される予定だ。

iPadとiPhone
提供:Apple

 そのうちの1つである「Live Speech」は、言葉を発せない人やさまざまな言語パターンや障害を持つ人を対象とした機能で、ユーザーが言いたいことを文字で入力すると、それを音声で伝えてくれるというもの。この機能は、対面での会話のほか、電話や「FaceTime」での通話でも使用できる。iPhone、iPad、Macで動作し、端末に内蔵されている任意の音声(「Siri」など)を使用する。例えば、「はじめまして。私は...です」のように自己紹介でき、「ブラックコーヒーをいただけますか」などのよく使うフレーズを保存しておくこともできる。

 この機能をさらに一歩進めたのが「Personal Voice」で、話す能力を失うリスクのある人が、自分の声に似た合成音声を作成し、文字で入力したフレーズの読み上げにその音声を使用できるというもの。Personal Voice は、オンデバイスの機械学習を使用する。一連のテキストをiPhoneまたはiPad上で15分間読み上げることにより、この機能をトレーニングする。

 iPhoneの「拡大鏡」アプリにも、「Point and Speak」という新機能が追加された。視覚障害者は、テキストラベルの付いた物体を指差すことにより、端末にそのテキストを読み上げてもらえる。例えば、電子レンジのボタンの識別に利用可能だ。Point and Speakは、スマートフォンのカメラ、LiDARスキャナー、オンデバイスの機械学習を使用して、ユーザーが指差したさまざまな物体のテキストを発見して認識する。「人の検出」「ドア検知」「画像説明の取得」など、拡大鏡の他の機能と併用でき、視覚障害者や弱視の人が周囲環境を把握しながら移動できるよう支援する。

 「Assistive Access」は、認知障害を持つ人を対象とした機能で、端末のインターフェースを絞り込むことでユーザーの認知負荷を軽減する。例えば、iPhoneの「ホーム」画面や「電話」「メッセージ」「カメラ」「写真」「ミュージック」のテキストラベルを大きく表示し、ボタンのコントラストを高くする。視覚的なコミュニケーションを望むユーザーは、絵文字だけのキーボードをメッセージで使用したり、ビデオメッセージを録画して送信したりできる。

 2023年中に提供予定のその他のアクセシビリティー機能としては、「Made for iPhone」の聴覚デバイスをMacと直接ペアリングする機能や、「Finder」、メッセージ、メール、カレンダー、メモなどのMacアプリで文字サイズの調整がしやすくなる機能などがある。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]