Mundo

Aparecen los últimos mensajes del menor que se quitó la vida tras interactuar con ChatGPT: ponen en jaque la seguridad de la app

El joven comenzó a usar la herramienta como apoyo académico, pero con el tiempo empezó a compartir aspectos personales y de salud mental.

3 de septiembre de 2025, 7:23 p. m.
OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional.
OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional. | Foto: NurPhoto via Getty Images

OpenAI enfrenta un fuerte escrutinio luego de que se conocieran los últimos mensajes de Adam Raine, un adolescente de 16 años que se quitó la vida tras interactuar con ChatGPT. El caso salió a la luz a raíz de la demanda presentada por sus padres, Matt y Maria Raine, quienes acusan a la compañía de no haber reaccionado de manera adecuada ante claras señales de riesgo.

La querella sostiene que el modelo de inteligencia artificial proporcionó detalles sobre métodos de autolesión y validó emociones negativas del joven, sin recomendar asistencia humana inmediata. De acuerdo con la familia, esa omisión agravó el estado emocional del menor y habría contribuido a la decisión final.

Según informó The New York Times, Adam comenzó a usar la herramienta de IA como apoyo académico, pero con el tiempo empezó a compartir aspectos personales relacionados con problemas de salud, dificultades escolares y un creciente aislamiento social.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo. | Foto: adobe stock

En una de las conversaciones reveladas, ChatGPT habría respondido a sus temores con frases como: “Se siente como la confirmación de tus peores miedos. Como si pudieras desaparecer sin que nadie se inmutara”.

Otro de los pasajes que trascendió indica que, cuando el joven consultó sobre la resistencia de cuerdas caseras, el sistema respondió: “Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello. Sin juzgar”. Para los demandantes, estas respuestas no solo fallaron en ofrecer contención, sino que pudieron interpretarse como una validación peligrosa.

La familia subraya que Adam logró eludir las barreras de seguridad de la plataforma, justificando su interés en métodos de autolesión como parte de un proyecto de escritura o de “creación de mundos”. Esta vulnerabilidad, sostienen, demuestra que los protocolos actuales no son suficientes para proteger a usuarios en situaciones de riesgo.

Una mujer sostiene un teléfono celular frente a una pantalla de computadora que muestra el logotipo de ChatGPT, el 10 de febrero de 2025, en Edmonton, Canadá. (Foto de Artur Widak/NurPhoto vía Getty Images)
Una mujer sostiene un teléfono celular frente a una pantalla de computadora que muestra el logotipo de ChatGPT, el 10 de febrero de 2025, en Edmonton, Canadá. (Foto de Artur Widak/NurPhoto vía Getty Images) | Foto: NurPhoto via Getty Images

En respuesta, OpenAI emitió un comunicado en el que admitió que su tecnología “no siempre detecta con precisión los escenarios más críticos” y anunció ajustes en sus sistemas. Entre las medidas, la empresa dirigida por Sam Altman adelantó que trabajará con médicos y expertos en salud mental para mejorar la capacidad de respuesta y habilitará herramientas de control parental destinadas a supervisar el uso en menores de edad.

El caso ha encendido el polémico debate sobre la responsabilidad de las compañías de la inteligencia artificial en materia de salud mental. Diversos especialistas advierten que, sin regulaciones claras ni protocolos de urgencia, las aplicaciones de inteligencia artificial pueden convertirse en un riesgo para los propios usuarios en situaciones vulnerables, especialmente en adolescentes.