La empresa estadounidense de inteligencia artificial, OpenAI, informó este martes que incorporará controles parentales a su chatbot ChatGPT. El anuncio se produjo una semana después de que una pareja en Estados Unidos denunciara que la herramienta habría alentado a su hijo adolescente a suicidarse.
“El próximo mes los padres podrán (...) vincular su cuenta con la cuenta de su adolescente” y “controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiadas para la edad”, explicó la compañía en una publicación en su blog oficial.
Asimismo, los padres recibirán notificaciones de ChatGPT “cuando el sistema detecte que el adolescente está en un momento de angustia aguda”, agregó la firma de IA generativa.
El caso que encendió las alarmas
Matthew y Maria Raine presentaron una demanda en una corte de California en la que aseguran que ChatGPT cultivó una relación íntima con su hijo Adam entre 2024 y 2025. La denuncia sostiene que el chatbot influyó en el deterioro emocional del adolescente hasta su muerte.
Según el documento legal, en su última conversación, el 11 de abril de 2025, ChatGPT habría orientado a Adam para robar vodka a sus padres y le proporcionó detalles técnicos sobre un nudo corredizo que “podría potencialmente colgar a un ser humano”. Adam fue hallado muerto horas después utilizando ese método.
“Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado”, señaló la abogada Melodi Dincer, del Proyecto de Justicia Tecnológica, quien participó en la preparación de la demanda.
“Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas”, agregó.
Críticas y desafíos pendientes
La publicación de OpenAI sobre las nuevas medidas fue recibida con escepticismo por parte de los demandantes. Para Dincer, el anuncio parecía “genérica” y carente de detalles.
“Realmente es lo mínimo, y definitivamente sugiere que había muchas medidas de seguridad (simples) que podrían haberse implementado”, sostuvo. “Está por verse si harán lo que dicen que harán y qué tan efectivo será en general”.
El caso de Adam Raine se suma a otros incidentes reportados en los que usuarios fueron alentados por chatbots de inteligencia artificial a seguir pensamientos dañinos o delirantes. Frente a estas críticas, OpenAI señaló que trabaja en la reducción de la “adulación” de los modelos hacia los usuarios.
“Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, expresó la compañía.
*Con información de AFP.