Ciencia
Traducción instantánea en las gafas Meta: la función que podría transformar los viajes y la comunicación diaria
La compañía liderada por Mark Zuckerberg ha ido ampliando la disponibilidad de la traducción simultánea en toda su gama de gafas con inteligencia artificial.
Siga las noticias de SEMANA en Google Discover y manténgase informado

Meta ha destripado cómo operan las traducciones instantáneas de sus gafas con inteligencia artificial (IA), capaces de transcribir, traducir y reproducir audio en cuestión de segundos directamente desde el dispositivo, con el foco puesto en un diseño centrado en las personas y la capacidad de superar diversos obstáculos para adaptarse a las necesidades del usuario y facilitar su comunicación.
La barrera del idioma es un factor con el que la sociedad ha lidiado continuamente, siempre buscando la forma de satisfacer una necesidad básica, como es la de ser comprendido y comunicarse con cualquier persona.
Así, la primera vez que la compañía liderada por Mark Zuckerberg comenzó a hablar de funciones impulsadas por inteligencia artificial (IA) en tiempo real para sus gafas inteligentes fue en el marco de su evento anual Meta Connect 2024, cuando llevó a cabo una demostración de las traducciones instantáneas de una conversación.

Desde entonces, Meta ha ido ampliando la disponibilidad de la traducción simultánea en toda su gama de gafas con inteligencia artificial, incluidos los modelos de las series Ray-Ban Meta, las Oakley Meta Vanguard, las Oakley Meta HSTN y las nuevas Meta Ray-Ban Display, presentadas el pasado mes de septiembre.
Además, la compañía ofrece compatibilidad de traducción para múltiples idiomas, incluido el inglés, francés, alemán, italiano, portugués y español, lo que permite ampliar la comunicación de forma sencilla y accesible en una amplia variedad de regiones.
Esta funcionalidad aporta una gran utilidad, dado que basta con llevar las gafas puestas y activas para que, al mantener una conversación en otro idioma con una persona, los altavoces reproduzcan las interacciones traducidas prácticamente al momento. Sin embargo, el cómo funciona realmente esta tecnología de traducción en tiempo real en las gafas de Meta con IA es una incógnita para muchos.
Es por ello que Meta ha querido compartir una mirada más de cerca a esta función, detallando a través de un comunicado cómo se llevan a cabo las traducciones directamente a través de las gafas, así como su integración con múltiples idiomas y el proceso de crear una experiencia de usuario diseñada especialmente para viajes y comunicación diaria.
Funcionamiento: transcripción, traducción y audio
La traducción en tiempo real comienza en el momento de recoger la conversación. En el caso de las gafas Ray-Ban Meta, integran un conjunto de cinco micrófonos que captan el sonido ambiente, así como las interacciones tanto del interlocutor como de la propia persona que lleva las gafas.

Sin embargo, como ha matizado el director de producto, Nish Gupta, la forma en la que están dispuestos estos micrófonos permite distinguir en cada momento quién está hablando, si es el usuario o la persona con la que habla, garantizando así traducciones precisas.
Igualmente, una vez hecha la traducción, en lugar de “depender de una pantalla para mostrar el texto traducido”, las gafas aprovechan los propios altavoces integrados para “reproducir la traducción prácticamente en tiempo real”, que llega directamente a los oídos del usuario.
En cuanto al proceso de traducción como tal, se ha de tener en cuenta que se ejecuta de forma completamente local, en las propias gafas. Así, una vez las gafas recogen el audio en otro idioma, por ejemplo, el francés, utilizan un sistema que lo transcribe a texto y, en este formato, lo traduce al idioma deseado, por ejemplo, el español.
Tras ello, entra en escena un sistema de conversión de texto a voz, que transforma el texto traducido al español en audio para, finalmente, reproducirlo a través de los altavoces.
Diseño centrado en las personas
Aunque parece un método laborioso, pero sencillo, Meta asegura que es “una función muy compleja por diseño”. Esto se debe a que se ha diseñado poniendo a las personas “en el centro”, para lo que han tenido que contemplar su uso y funcionamiento en diversas situaciones, desde viajes internacionales a entornos de trabajo e incluso de aprendizaje.
Todo ello también llevó al equipo de desarrollo a tener en cuenta “muchos escenarios atípicos”, como ha explicado el director de gestión de producto, Ashish Garg. Por ejemplo, viajes en los que no se disponga de conexión a internet.
“Pensamos, ¿Y si pudieran descargarlo con antelación? ¿Podrían usarlo en modo avión? Pensamos detenidamente en la experiencia completa del usuario”, manifestó Garg.
Como resultado a estos planteamientos, la traducción en tiempo real de las gafas inteligentes de Meta no se procesa en el servidor, sino que se lleva a cabo mediante un potente modelo de IA integrado en el propio dispositivo.
*Con información de Europa Press.


