La inteligencia artificial, el temor de la humanidad.
Una herramienta de inteligencia artificial llamada Tessa fue relevada por entregar información confusa a los pacientes. | Foto: Getty Images

Tecnología

Inteligencia artificial que reemplazó empleados de línea de ayuda a personas cometió un peligroso error y terminaron despidiéndola

Esta herramienta fue suspendida hasta que los desarrolladores puedan solucionar el error.

1 de junio de 2023

La inteligencia artificial sigue siendo la alternativa de algunas compañías para ahorrar recursos y evitar la contratación de empleados; esta nueva herramienta puede ser entrenada para ciertas labores por lo que están teniendo auge en sectores como el de recursos humanos o el de atención al cliente, tareas que suelen ser repetitivas y que están siendo realizadas por robots que, además de realizarlas de forma correcta, le están ahorrando gasto a la industria.

@revistasemana

Elon Musk mostró al mundo entero su nuevo robot: Optimus. #Noticias

♬ sonido original - Revista SEMANA - Revista SEMANA

Bajo esta tesis, la Asociación Nacional de Trastornos de la Alimentación de Estados Unidos (Neda) fue una de esas corporaciones que vio en esta nueva tendencia la forma de agilizar y hacer muchos más rentables algunos de sus procesos, por lo que decidió, en respuesta a la sindicalización de un gran número de sus empleados, contratar a un chatbot bautizado como Tessa y el cual es muy parecido al popular ChatGPT.

Pese a que esta solución resultó ser más económica, el robot entrenado para abordar temas de salud mental y ayudar a prevenir trastornos alimenticios, terminó siendo un mal consejero, pues entregó a quienes lo consultaron, malas indicaciones que llegaron a poner en peligro la vida de quienes recurrieron a los servicios de la Asociación Nacional de Trastornos de la Alimentación de Estados Unidos.

La inteligencia artificial, el temor de la humanidad.
La inteligencia artificial se ha utilizado como una solución en el entorno médico; sin embargo, la OMS pide cautela a la hora de utilizar estas herramientas. | Foto: Getty Images

Toda esta situación quedó al descubierto luego de que la activista publicara en su cuenta de Instagram el consejo que le dio la inteligencia para perder peso; allí, le recomendaba un déficit de 500 a 1.000 calorías diarias, además de pesarse todos los días y medirse todas las semanas.

“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, no habría recibido ayuda. (…) Si no hubiera recibido ayuda, hoy no estaría viva”, fue la contundente frase de Sharon Maxwell en su red social.

Al respecto, Neda negó esta situación en primera instancia, pero luego de verificar la información que se hizo viral en redes procedieron a dar de alta a Tessa por haber “dado información que era dañina”.

Inteligencia artificial
La herramienta Tessa entregó información confusa y equivocada a quienes la consultaron para tratar sus trastornos alimenticios. | Foto: Getty Images

Toda esta situación se presentó luego de que la organización anunciara que la línea atendida por personas desde hace 20 años pasaría a ser operada por Tessa a partir del primero de junio.

Al respecto, los trabajadores de Neda aseguraron que un robot no podría reemplazar a un humano en este tipo de servicios en los que se requiere de empatía.

“Un chatbot no sustituye a la empatía humana, creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios”, dijo uno de los empleados afectados por la decisión de Neda.

Otros psicólogos que probaron la herramienta también recibieron respuestas que, a su juicio, reforzaban la posibilidad de padecer un trastorno, lo que llevó a la organización a revisar lo que estaba sucediendo con su asistente virtual.

Crean un dispositivo con inteligencia artificial que podría sustituir a los smartphones.
La Organización Mundial de la Salud ha hecho un llamado para que quienes utilicen chatbots para la atención médica sean extremadamente cautelosos | Foto: Ilustración generada por IA Bing Image Creator

Por ahora, se espera que los desarrolladores puedan corregir el error para evitar que este chatbot siga entregando información equivocada; mientras tanto, Tessa tendrá que esperar para volver a ejercer sus funciones, pues la organización decidió apartarlo de su cargo hasta que se puedan instalar diferentes filtros que le permitan elegir, de forma adecuada, las respuestas que se deben entregar a quienes acuden a esta organización para atender sus trastornos alimenticios.

Cabe señalar que la Organización Mundial de la Salud ha hecho un llamado para que quienes utilicen chatbots para la atención médica sean extremadamente cautelosos ante la posibilidad de que estos modelos puedan estar “sesgados” y entregar información poco confiable a los pacientes.