Apple、iPhoneとiPadに多数の新しいアクセシビリティ機能を追加

Appleは本日、視線追跡や音声ショートカットなど、今年後半にiPhone、iPad、Apple Vision Proに搭載される予定の一連の新しいアクセシビリティ機能を発表しました。
関連性のあるコンテンツ
関連製品
Eye Tracking を使用すると、身体に障害のあるユーザーは、目だけで iPhone や iPad を操作できます。もちろん、すべて AI によって実現されています。デバイスの前面カメラを使用して、目の動きを検出して追跡します。この機能の良い点は、Apple がダウンロードしなければならないアプリや購入しなければならないハードウェアを用意していないことです。すべて内蔵されており、すべての iOS および iPad アプリで機能します。
音声ショートカットを使用すると、ユーザーは「Siri が理解できるカスタム発話を割り当てて、ショートカットを起動したり、複雑なタスクを完了したりできます」。別の機能である「異型発話を聞き取る」では、機械学習を使用してユーザーの発話パターンを認識します。これは、脳卒中患者や発話に影響を与える可能性のあるその他の症状の回復に特に役立ちます。
関連性のあるコンテンツ
関連製品
- オフ
- 英語
運転中に乗り物酔いに悩まされているなら、車両モーション キューが大いに役立つはずです。この機能は、乗客の乗り物酔いを軽減し、移動中の車内でより自由に携帯電話を使用できるようにします。私は、移動中の車内では吐き気がして Google マップを見ることすらできない人間ですが、この機能がうまく機能すれば、状況は一変するでしょう。コントロール センターでこの機能を有効にすると、画面の両側にアニメーション ドットが表示され、移動中の車内で乗客が見るものと感じるものの感覚的な矛盾を軽減するのに役立ちます。

難聴や聴覚障害を持つ人向けの Music Haptics 機能もあります。この機能を使用すると、デバイスで再生されているオーディオに応じて、タップ、テクスチャ、振動の形で触覚フィードバックが得られます。同社によると、Music Haptics は Apple Music の何百万もの曲で機能するとのこと。Apple
Vision Pro には、visionOS 向けの数十のアクセシビリティ アップデートも用意されており、その中でも目立っているのは Facetime のライブ キャプションです。ただし、視力の弱いユーザーも、より多くの視覚アクセシビリティ オプションにアクセスできるというメリットがあります。