1. トップ
  2. 新着ニュース
  3. IT
  4. IT総合

Apple、「iPhone/iPadを視線で操作」などアクセシビリティ機能を発表、今年後半に登場

マイナビニュース / 2024年5月16日 7時59分

画像提供:マイナビニュース

5月の第3木曜日は「Global Accessibility Awareness Day」(今年は5月16日)である。障碍のある人々の情報やサービスへのアクセスのしやすさ、アクセシビリティについて考える日に向けて、Appleが「Eye Tracking」「Music Haptics」「Vocal Shortcuts」「Vehicle Motion Cues」など、今年後半にリリースする予定のアクセシビリティの新機能を発表した。

「Eye Tracking」は、iPad/iPhoneの視線追跡制御を可能にする。iPadOSとiOSに統合された機能で、追加のハードウェアやアクセサリは必要ない。ユーザーは視線でアプリの各要素をナビゲートし、Dwell Control(視線による操作機能、タップ、スクロール、長押し、ドラッグなどをサポート)を使って各要素をアクティブにして操作する。

「Music Haptics」は、耳の不自由なユーザーが音楽を触感で体験できる機能である。オンにすると、iPhoneに搭載されたTaptic Engineが音楽の音声に合わせてタップ、テクスチャー、微細な振動で音楽再生を表現する。Apple Musicの何百万もの音楽で利用でき、Appleはこの機能を開発者がアプリに追加できるAPIの提供も予定している。

「Vocal Shortcuts」は、iPhoneまたはiPadで、音声によるShortcutsの実行に、Siriが理解できる発話を割り当てられる。「Listen for Atypical Speech」という、より幅広い発話に対応できるように音声認識を強化するオプションも用意される。Listen for Atypical Speechは、脳性麻痺、筋萎縮性側索硬化症(ALS)、脳卒中など、発話に影響を及ぼす後天的または進行性の疾患を持つユーザーのために設計された機能で、デバイス上の機械学習を使ってユーザーの発話パターンを認識する。

「Vehicle Motion Cues」は乗り物酔いを軽減する機能だ。乗り物で本を読んだり、スマートフォンを使用すると、移動中の振動や体の動きによって目から入る視覚情報と内耳の平衡感覚からの情報の不一致が起こり、脳が混乱して乗り物酔いが起こる。Vehicle Motion Cuesは、iPhone/iPadで、乗り物の動きの変化を表現するドット・アニメーションを画面の端に表示し、メインのコンテンツを邪魔することなく感覚の衝突を軽減する。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください