ニュース

アップル、全OSでアクセシビリティ改善を予告――視線追跡でiPad操作など

 アップル(Apple)は、全てのOSを対象に、障がいがあるユーザーでもApple製品をより使いやすくする新機能を年内に追加する。

 視覚障がいがあるユーザーは、VoiceOver画面読み上げが画面内のオブジェクトを探索するデバイス上の知能を使うことで、よりスマートに使えるという。

 神経多様性のサポートでは、注意の分散を最小限に抑えるのに役立つ背景音が導入され、聴覚に障がいがあるユーザー向けには、Made for iPhone(MFI)認証を取得した、新しい双方向補聴器がサポートされる。

 アメリカ、イギリス、フランスでスタートする「SignTime」は、それぞれの国で使われる手話をウェブブラウザで直接使い、AppleCareおよび直営店のカスタマーサポートとコミュニケーションが行える。

 Apple Storeの直営店を訪問するユーザーは、「SignTime」を使って、事前の予約なしに手話通訳にリモートでアクセスできる。「SignTime」は、アメリカ、イギリス、フランス以外の国にも拡大する予定。

Apple Watch向けのAssistiveTouch

 身体機能に障がいのあるユーザーをサポートするため、watchOSのAssistiveTouchにより、上肢に障がいのあるユーザーが、ディスプレイやコントロールに触れなくても、Apple Watchの利点を楽しめるようになる。

 ジャイロスコープや加速度センサーなどのモーションセンサー、光学式心拍センサーの機械学習を利用し、わずかな筋肉運動や腱の動きを検出することで、つまむ、握るなどの手のジェスチャーでディスプレイ上のカーソルを操作できる。

 AssistiveTouchにより、四肢障がいのあるユーザーがより簡単に電話に応答したり、画面上のモーションポインタを操作したり、通知センターやコントロールにアクセスできるようになる。

 Appleが公開したデモ動画では、手と掌(手首から先)の動きでApple Watchを操作し、タイマーの停止、電話への応答、メニューの表示や画面上に表示するカーソルポインタの操作を行っている。

iPadOS、他社製の視線追跡デバイスをサポート

 iPadOSが他社製の視線追跡デバイスに対応し、目だけでiPadを操作することが可能になる。また、対応するMFiデバイスでユーザーが画面のどこを見ているか追跡し、目の動きに従ってポインタが動くようになり、長く視線を合わせるとタップなどの操作を実行できるようになる。

VoiceOverでの画像探索

 画面の内容を読み上げるVoiceOver機能では、画像の中の人、テキスト、表データ、その他のオブジェクトをさらに詳しく探索できるようになる。ユーザーは、レシートの写真を表のように整理された情報として、行や列ごと、表のヘッダなどで把握できるようになる。

 VoiceOverでは、画像内の人やほかのオブジェクトとの位置関係も説明できるため、思い出を詳細に追体験できる。また、マークアップを使って独自の画像説明を追加すると、家族写真をパーソナライズできる。

Made for iPhoneの補聴器とオージオグラムのサポート

 MFiヒアリングデバイスプログラムの重要なアップデートとして、新しい双方向補聴器のサポートを追加する。これらの補聴器に搭載されたマイクで、聴覚に障がいのあるユーザーは、ハンズフリーで電話やFaceTimeの会話ができるようになる。年内にMFiパートナーから次世代のモデルが提供される予定。

 また、ヘッドフォン調整機能では、オージオグラムの認識がサポートされる。ユーザーは、紙またはPDFのオージオグラムから自分の最新の聴力検査結果を読み込み、オーディオをカスタマイズできる。ヘッドフォン調整機能では、弱い音を増幅することで、ユーザーの聞こえ方に合わせて特定の周波数を調整する。

背景音の再生をサポート

 神経多様性のサポートとして、海、雨、川のせせらぎなどの背景音により、注意の分散を最小限に抑え、平静さを維持し、休養を取るのに役立つ新しい環境音を導入する。背景音は、システムサウンドやメディア再生中にも再生できる。