En la tarde del miércoles 17 de mayo la compañía de desarrollo tecnológico Apple, anunció que sus aplicaciones Mapas y Music permitirán a los usuarios encontrar salas de conciertos y actuaciones en directo de distintos artistas que vayan a tener lugar en lugares cercanos a su ubicación.

La compañía ha comentado que busca ofrecer “la experiencia sonora definitiva” a amantes de la música de todo el mundo con nuevas funcionalidades que facilitarán la interacción entre los artistas y sus seguidores.

La compañía innova con este tipo de funciones. | Foto: Getty Images

Por un lado, introducirá en Mapas más de 40 nuevas guías elaboradas por editores expertos de su aplicación de música, Apple Music, en los que se destacan los mejores lugares para escuchar música en directo “en algunos de los principales núcleos culturales del mundo”.

“Desde las salas de conciertos más emblemáticas de Viena hasta los clubes de tecno más vanguardistas de Brooklyn y Tokio”, ha comentado en un comunicado, sin hacer referencia al resto de las diez ciudades que estarán integradas en esta nueva característica.

Por otra parte, Apple ha comentado que Apple Music también permite a los seguidores consultar los próximos espectáculos que se ofrecerán en determinadas salas mediante una opción que contiene Shazam. Esta opción ofrece la información de todos estos conciertos gracias a Bandsintown, otra plataforma que recomienda eventos y ayuda a descubrir nuevos artistas.

Apple considera nuevas opciones para sus usuarios. | Foto: Getty Images

La compañía también ha recordado que en Apple Music los nuevos repertorios de conciertos muestran selecciones de canciones de algunas de las giras de estos artistas para que los usuarios puedan informarse sobre sus producciones. A eso, se ha añadido la novedad de que los fans puedan usar el módulo de conciertos de Shazam en esta ‘app’ para ver las próximas actuaciones de estos artistas cerca de su ubicación.

Apple lanza una función para que el iPhone “hable” con la voz de su dueño, así opera esta novedad

Las herramientas y funciones de accesibilidad de Apple incluirán con iOS 17 novedades para las personas que no pueden hablar o están en riesgo de perder el habla, quienes podrán usar un dispositivo iPhone o iPad para expresarse con Live Speech y mediante la creación de una voz personalizada.

La nueva herramienta ‘Live Speech’ se dirige a las personas que no pueden hablar para que puedan comunicarse durante las llamadas y videollamadas con ayuda del teclado del iPhone o del iPad. Para ello, podrán escribir lo que quieran decir y este texto se reproducirá en voz alta posteriormente, para mantener la conversación.

‘Live Speech’ también permitirá guardar frases que el usuario utilice de forma habitual para responder más rápido, como informa la compañía tecnológica en su blog oficial. También puede utilizarse en conversaciones en persona.

Junto a esta herramienta, Apple también ha anunciado ‘Personal Voice’, con la que aquellas personas que estén perdiendo la capacidad de hablar puedan recrear su voz a partir de un entrenamiento breve, para que funcione de forma conjunta con ‘Live Speech’.

iPhone busca novedades para sus usuarios. | Foto: Europa Press 2020

Para ello, deberán leer conjunto al azar de propuesta de texto para grabar 15 minutos de audio con su voz en iPhone o iPad. A partir de esta información el modelo de aprendizaje automático del dispositivo recreará su voz en las llamadas.

Las novedades en accesibilidad se extienden a las herramientas para las personas con discapacidades cognitivas. Para ellas, Apple ha anunciado ‘Assistive Access’, que personaliza algunas de las ‘apps’ de la compañía para ofrecer una interfaz de usuario simplificada, con iconos y textos grandes.

La finalidad de ‘Assistive Access’ es personalizar la experiencia de iPhone y FaceTime, y para ello incluye opciones de configuración para los colaboradores de confianza. También se puede optar por un diseño más visual basado en cuadrículas para la pantalla de inicio y las aplicaciones, u otro en filas, en el que se destaca el texto.

Los usuarios con discapacidades visuales también tendrán una novedad en la lupa, una nueva función ‘Apuntar y hablar’, que utiliza el escáner LiDAR, la cámara y el aprendizaje automático del dispositivo para explicarle al usuario las etiquetas de texto que muestra el objeto que tiene delante y pueda interactuar con él.

*Con información de Europa Press.