Al estilo del programa de ciencia ficción Black Mirror, una nueva aplicación ha sido lanzada al mundo desafiando los límites alrededor del duelo, el recuerdo humano y la salud mental. Se trata de 2WAI, creada por el actor de Disney Calum Worthy y el productor de Hollywood Russell Geyser, la cual, mediante inteligencia artificial, permite ‘conversar’ con familiares fallecidos.

De acuerdo con la descripción en la página web de la aplicación, esta funciona creando avatares holográficos que replican la voz, los movimientos y los recuerdos de personas que ya no están a partir de videos y fotos de la persona original. Su video promocional en X alcanzó los 4,1 millones de reproducciones y Worthy ha asegurado que 2WAI es un “archivo viviente de la humanidad”.

Además, lanzó una pregunta: “¿Y si los seres queridos que hemos perdido pudieran formar parte de nuestro futuro?”. Desde su lanzamiento, a mediados de 2025, esta aplicación ya ha desatado reacciones de todo tipo y comparaciones con Be Right Back, el primer episodio de la segunda temporada de Black Mirror en el que justamente desde la ficción se podía hablar con seres queridos fallecidos. 2WAI no es el primer acercamiento a este tema.

En 2022, Amazon lanzó una tecnología especial para su asistente virtual Alexa que le permitía imitar la voz de un familiar fallecido.

La aplicación maneja inteligencia artificial. | Foto: Getty Images

A propósito de esta polémica, SEMANA conversó con Jesús Antonio Hernández Riveros, coordinador del grupo de investigación en Sistemas Complejos Naturales y en Inteligencia Computacional de la Universidad Nacional, sobre el entrenamiento que se requiere para este tipo de herramientas. “Este tema es muy controversial por varios motivos. Primero, porque es una máquina; segundo, porque es un asunto comercial; tercero, no soluciona nada, es muy parecido a enamorarse de un avatar o tener un novio o novia digital”, afirma.

Sobre el entrenamiento de este tipo de tecnología asegura: “Para nutrirlo, se necesita que una persona entregue toda la información posible del difunto y de sí misma para crear enlaces en la conversación. Toda esa información se mete en una base de datos con apuntadores, índices o claves. La conversación se arma con modelos de lenguaje extendidos, que son procesamiento de lenguaje natural”.

Sobre los riesgos de privacidad que rodean a este tipo de aplicaciones, el experto asegura que podría haber potenciales peligros. “Hay riesgos como fraudes bancarios o estafas. Es explotación comercial, no es una solución al duelo porque impide cerrar ciclos y vivir”, dice.

Desde su opinión, Hernández asegura que el desarrollo y riesgo de este tipo de aplicaciones depende enteramente de quién las use y cómo las use, “mientras mantengas la conciencia de que es un juguete desechable, está correcto.

El problema es la dependencia, porque eso agrava el duelo, ancla más. Si tú no estás preparado, genera una obsesión y hasta una enfermedad mental”.

Aceptar la muerte

En ocasiones es mejor vivir el duelo de forma natural. | Foto: Getty Images/iStockphoto

William Jiménez, director del departamento de Psicología de la Universidad de los Andes, advierte con fuerza el riesgo de esta tecnología. “Más que cruzar un límite, están erosionando nuestra esencia. Empezamos dejando que el autocorrector completara palabras; ahora dejamos que la IA complete nuestro trabajo y pensamiento. El peligro real es perder nuestro sentido de agencia: si delegamos todo el proceso, renunciamos a la satisfacción y al propósito de hacer las cosas por nosotros mismos”, afirma.

Jiménez advierte que “la IA distorsiona el valor del esfuerzo porque vuelve todo inmediato. Corremos el riesgo de ser una sociedad que ya no valora el camino, sino solo el resultado instantáneo”. Y agrega: “Estamos externalizando nuestra humanidad. Las redes se llevaron nuestra atención y los buscadores nuestra memoria. Ahora, la IA amenaza con llevarse nuestra curiosidad y esfuerzo mental. A largo plazo, nos dirigimos a una sociedad donde el conocimiento y la creatividad ya no residen en nuestras cabezas, sino alquilados en servidores externos, en los algoritmos que usamos”.

Gustavo Perdomo Patiño, médico psiquiatra y magíster en Bioética de la Universidad de los Andes, aporta una mirada profunda sobre las implicaciones emocionales: “Una IA recreando a la persona fallecida es como si la persona nunca hubiera muerto. Eso supone una continuidad artificial peligrosa que puede entorpecer el proceso natural de duelo”.

Expertos advierten del peligro de esta práctica. | Foto: Getty Images

Perdomo explica que “el duelo es un proceso de transformación vinculada: el vínculo cambia porque la persona no está, y eso debe aceptarse para sanar”. Al usar IA que simula vida, “nos evadimos del dolor, y eso puede congelar el duelo, donde no aceptamos la realidad, porque mantenemos una ilusión”.

Perdomo también advierte sobre la dependencia que estas aplicaciones pueden generar: “Cuando usamos la IA para evitar enfrentar la pérdida, nos convertimos en esclavos de esa tecnología, condicionando nuestra salud emocional a su uso”. Describe el duelo congelado como “un estado donde la negación es un mecanismo que nos protege, pero también perjudica”. Para él, la inteligencia artificial “debe usarse racionalmente para facilitarnos tareas, no para resolver todas las emociones o procesos humanos”.

La salud mental requiere de un acompañamiento humano y ético que ninguna máquina puede ofrecer. | Foto: 123RF

El experto en salud mental señala además el potencial riesgo de sedentarismo mental que podrían empezar a generar el uso desmedido de aplicaciones basadas en IA, en las cuales emociones como el duelo serán más difíciles de transitar. “Nos podemos quedar en el facilismo de simplemente evitar ese dolor manteniendo a la persona viva en nuestra mente a través de la IA. Claramente esa aceptación y esa recuperación mental no tendrían un lugar y lo que viviríamos sería una falsa realidad con esta persona”.

Ante ese escenario, Perdomo hace un llamado: “Los profesionales de la salud mental enfrentamos el reto de educar y acompañar a las personas para que usen la tecnología como apoyo, pero sin sustituir el vínculo humano”. Recomienda terapias narrativas, grupos de apoyo y prácticas religiosas que ayuden al duelo de maneras naturales y compasivas. Subraya también la importancia del autocuidado: “Una alimentación saludable, ejercicio regular y mindfulness son estrategias que permiten conectar con el presente y enfrentar el dolor sin evasión”.

Plantea además una llamativa propuesta para proteger ese sentido humano catalogado como “zonas libres de IA”, espacios donde “el cerebro humano sea el único motor” para no atrofiar nuestras capacidades cognitivas.

Sobre el debate ético que ha despertado el lanzamiento de aplicaciones como 2WAI, William Jiménez lanza una reflexión fundamental: “La transparencia es clave. Propongo sellos de advertencia que digan ‘Contenido con exceso de IA’, para que el usuario tenga claro si interactúa con un humano o un algoritmo”. Enfatiza que “no se debe temer a la tecnología, pero sí educar para usarla con equilibrio. La IA nunca reemplazará la empatía y el acompañamiento terapéutico, que son irremplazables para el ser humano”.