Apple anuncia novedades en accesibilidad para iOS 18

Apple ha previsualizado hoy muchas nuevas funciones de accesibilidad que llegarán a finales de este año con actualizaciones de software como iOS 18, iPadOS 18, macOS 15 y visionOS 2. El anuncio llega un día antes del Día Mundial de Concienciación sobre la Accesibilidad.

Las nuevas características clave de accesibilidad para el iPhone y/o el iPad incluirán:

  • Seguimiento ocular
  • Música Háptica
  • Atajos vocales
  • Señales de movimiento del vehículo

Los usuarios de Mac tendrán la capacidad de personalizar los atajos de teclado de VoiceOver y el soporte en mandarín para la voz personal, mientras que Vision Pro obtendrá subtítulos en vivo en todo el sistema, reducir la transparencia, invertir inteligente y luces intermitentes de atenume.

Seguimiento ocular

Apple dice que el seguimiento ocular en el iPhone y el iPad permitirá a los usuarios navegar por las interfaces del sistema y las aplicaciones con solo sus ojos:

Impulsado por la inteligencia artificial, Eye Tracking ofrece a los usuarios una opción integrada para navegar por el iPad y el iPhone solo con sus ojos. Diseñado para usuarios con discapacidades físicas, Eye Tracking utiliza la cámara frontal para configurar y calibrar en segundos, y con el aprendizaje automático en el dispositivo, todos los datos utilizados para configurar y controlar esta función se mantienen de forma segura en el dispositivo y no se comparten con Apple.

El seguimiento ocular funciona en las aplicaciones de iPadOS e iOS, y no requiere hardware o accesorios adicionales. Con Eye Tracking, los usuarios pueden navegar a través de los elementos de una aplicación y usar Dwell Control para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con sus ojos.

Música Háptica

Cuando esta función está activada, el motor Háptico del iPhone reproducirá “toques, texturas y vibraciones refinadas” que se corresponden con el audio de la música:

Music Haptics es una nueva forma para que los usuarios sordos o con problemas de audición experimenten la música en el iPhone. Con esta función de accesibilidad activada, el Taptic Engine en el iPhone reproduce toques, texturas y vibraciones refinadas en el audio de la música. Music Haptics funciona a través de millones de canciones en el catálogo de Apple Music, y estará disponible como una API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.

Atajos vocales

Los accesos directos vocales permitirán a los usuarios de iPhone y iPad asignar “sonidos personalizados” que Siri puede entender para “lanzar accesos directos y completar tareas complejas”.

Señales de movimiento del vehículo

Esta función está diseñada para reducir el mareo por movimiento mientras se mira la pantalla de un iPhone o iPad en un vehículo en movimiento:

Con Vehicle Motion Cues, los puntos animados en los bordes de la pantalla representan cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal. Utilizando sensores integrados en el iPhone y el iPad, Vehicle Motion Cues reconoce cuando un usuario está en un vehículo en movimiento y responde en consecuencia. La función se puede configurar para que se muestre automáticamente en el iPhone, o se puede activar y desactivar en el Centro de Control.

CarPlay


CarPlay obtendrá control de voz, filtros de color y reconocimiento de sonido.

El reconocimiento de sonido en CarPlay permitirá a los conductores o pasajeros sordos o con problemas de audición activar las alertas para que se les notifiquen las bocinas y las sirenas de los coches.

Subtítulos en vivo en Vision Pro

visionOS 2 será compatible con subtítulos en vivo, lo que permitirá a los usuarios sordos o con problemas de audición seguir el diálogo hablado en conversaciones en vivo y en el audio de las aplicaciones.

Más características

Apple describió muchas más características de accesibilidad que llegarán a sus plataformas a finales de este año:

– Para los usuarios ciegos o con baja visión, VoiceOver incluirá nuevas voces, un rotor de voz flexible, control de volumen personalizado y la capacidad de personalizar los atajos de teclado de VoiceOver en Mac.
– La lupa ofrecerá un nuevo modo de lectura y la opción de iniciar fácilmente el modo de detección con el botón Acción.
– Los usuarios de Braille obtendrán una nueva forma de comenzar y permanecer en la entrada de pantalla en Braille para un control y una edición de texto más rápidos; disponibilidad en idioma japonés para la entrada de pantalla en Braille; soporte para braille de varias líneas con Dot Pad; y la opción de elegir diferentes tablas de entrada y salida.
– Para los usuarios con baja visión, Hover Typing muestra un texto más grande al escribir en un campo de texto, y en la fuente y el color preferidos de un usuario.
– Para los usuarios que corren el riesgo de perder su capacidad de hablar, Personal Voice estará disponible en chino mandarín. Los usuarios que tengan dificultades para pronunciar o leer oraciones completas podrán crear una voz personal utilizando frases abreviadas.
– Para los usuarios que no hablan, Live Speech incluirá categorías y compatibilidad simultánea con Live Captions.
– Para los usuarios con discapacidades físicas, Virtual Trackpad for AssistiveTouch permite a los usuarios controlar su dispositivo utilizando una pequeña región de la pantalla como un trackpad redimensionable.
– El control de interruptores incluirá la opción de usar las cámaras del iPhone y el iPad para reconocer los gestos de toque con los dedos como interruptores.
– Voice Control ofrecerá soporte para vocabularios personalizados y palabras complejas.

Se espera que Apple presente iOS 18 y más en su conferencia de desarrolladores WWDC el 10 de junio, y las actualizaciones de software se lanzarán ampliamente a finales de este año.

Alf

Propietario de www.faq-mac.com.

Deja una respuesta