米Appleは5月13日(現地時間)、iPhone、iPad、Mac、Apple Watch、Apple Vision Proに今年後半に提供開始予定の、多数のアクセシビリティ機能を発表した。今年は、同社が1985年に障害者支援の取り組み「Office of Disability」を立ち上げてから40周年に当たる。
発表された中から主な新機能を紹介する。なお、日本でも同時期に提供が開始されるかどうかは不明だ。
●App Storeで「アプリのアクセシビリティ」表示
公式アプリストアApp Storeでは2020年から「アプリのプライバシー」セクションが表示されるようになっているが、そのアクセシビリティ版が追加される。
|
|
このセクションではアプリやゲーム内のアクセシビリティ機能(VoiceOver、Voice Control、Larger Text、Sufficient Contrast、Reduced Motion、キャプションなど)が強調表示される。
●Mac用拡大鏡
iPhoneとiPadでは既に利用できている「拡大鏡」を、Macでも利用できるようになる。
Macのカメラで周囲(画面やホワイトボードなど)を拡大したり、iPhoneの「連係カメラ」や接続されたUSBカメラと連携したり、「デスクビュー」を使って文書を読んだりできる。
●Braille(点字)サポート
|
|
「Braille Access」は、iPhone、iPad、Mac、Apple Vision Proを“フル機能の点字ノートテイカーに変える”機能。
点字スクリーン入力や接続された点字デバイスを使ってアプリを開いたり、点字形式でメモを取ったり、「Nemeth Braille」を使用して計算を行ったり、「Braille Ready Format」ファイルを開いたりできる。
●テキストを読みやすくする「Accessibility Reader」
「Accessibility Reader」は、iPhone、iPad、Mac、Apple Vision Proで利用可能な、フォント、色、間隔の広範なオプションや、Spoken Contentのサポートにより、幅広い障害を持つユーザーのためのテキストを読みやすくするシステム全体での読み上げモード。
任意のアプリから起動でき、拡大鏡にも組み込まれるため、現実世界のテキスト(書籍やメニューなど)にも対応する。
|
|
●Apple Watchでも「ライブリスニング」と「ライブキャプション」
AirPodsやBeatsで、騒がしい場所で話を聞き取れるようにする機能「ライブリスニング」と、Mac、iPhone、iPadで使える、音声をリアルタイムに文字起こしする機能「ライブキャプション」を、Apple Watchでも使えるようになる。ライブキャプションは日本語にも対応する。
iPhoneをリモートマイクとして使用し、AirPodsなどに音声をストリームしながら、ペアリングしたApple WatchでiPhoneが拾った音のライブキャプションを表示できる。
Apple Watchはリモコンとして機能し、ライブリスニングの開始/停止や、聞き逃した部分を確認するためにセッションを巻き戻すことができる。
●Apple Vision Proのアクセシビリティ機能強化
visionOSで、視覚アクセシビリティ機能が拡張される。ズーム機能のアップデートで、メインカメラで周囲を含む全てを拡大できるようになる。
また、VoiceOverユーザー向けに、「ライブ認識」機能が周囲の描写、オブジェクトの検出、文書の読み取りなどを行う。
|
|
|
|
Copyright(C) 2025 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。