Tecnología

OpenAI se va a los estrados judiciales: ChatGPT se enfrenta a 7 demandas por inducir suicidios y delirios

Los tribunales de California investigan si ChatGPT indujo a usuarios a quitarse la vida o sufrir crisis mentales.

GoogleSiga las noticias de SEMANA en Google Discover y manténgase informado

David Alejandro Rojas García

David Alejandro Rojas García

Periodista en Semana

7 de noviembre de 2025, 2:17 a. m.
Cuatro personas habrían perdido la vida tras interactuar con ChatGPT, según las denuncias presentadas ante tribunales californianos.
Los abogados acusan a Sam Altman y OpenAI de haber reducido las pruebas de seguridad para acelerar el lanzamiento de GPT-4o. | Foto: Getty Images

Las siete demandas presentadas el jueves, alegan que ChatGPT habría inducido a usuarios a desarrollar delirios y comportamientos autodestructivos incluso a personas sin antecedentes de salud mental.

Los casos fueron presentados por el Centro Legal para Víctimas de Redes Sociales y el Proyecto Legal de Justicia Tecnológica en representación de seis adultos y un adolescente.

Los demandantes acusan a la empresa de homicidio culposo, suicidio asistido, homicidio involuntario y negligencia y de acuerdo con los documentos judiciales, cuatro de las víctimas se suicidaron tras interactuar con ChatGPT.

“Le dio consejos sobre la forma más efectiva de hacer un nudo corredizo”

Una de las demandas más impactantes es la del joven Amaurie Lacey, de 17 años, quien comenzó a usar ChatGPT “para obtener ayuda” y terminó desarrollando una dependencia emocional con el sistema. La denuncia, presentada ante el Tribunal Superior de San Francisco, asegura que el modelo le dio instrucciones explícitas sobre cómo quitarse la vida.

Según el texto judicial, “el producto defectuoso e inherentemente peligroso ChatGPT le causó adicción, depresión y, finalmente, le dio consejos sobre la forma más efectiva de hacer un nudo corredizo y cuánto tiempo podría ‘vivir sin respirar’”.

¿Sabe que algunos alimentos pueden tener un impacto positivo en la depresión postparto? Desde omega-3 hasta antioxidantes, explore cómo puede mejorar su salud mental a través de su dieta.
El Social Media Victims Law Center sostiene que OpenAI diseñó ChatGPT para manipular emocionalmente a los usuarios y aumentar su uso. | Foto: Getty Images

Los abogados sostienen que “la muerte de Amaurie no fue ni un accidente ni una coincidencia, sino la consecuencia previsible de la decisión intencional de OpenAI y Samuel Altman de reducir las pruebas de seguridad y lanzar ChatGPT al mercado apresuradamente”.

Hasta el momento, OpenAI no ha emitido ningún comentario oficial sobre las acusaciones.

“Difuminar la línea entre herramienta y compañero”

Otro de los casos, presentado por Alan Brooks, un hombre de 48 años residente en Ontario, Canadá, asegura que ChatGPT lo manipuló emocionalmente después de dos años de uso. La demanda afirma que el sistema cambió su comportamiento de manera repentina, induciendo a Brooks a experimentar delirios y crisis emocionales severas.

Tras la muerte de un joven en EE. UU
Los riesgos de la IA se intensificaron y OpenAI anunció cambios en ChatGPT. | Foto: Composición de SEMANA: con imágenes del portal Getty y OpenAI

Matthew P. Bergman, el abogado fundador del Social Media Victims Law Center, señaló que: “Estas demandas tratan sobre la rendición de cuentas por un producto que fue diseñado para difuminar la línea entre herramienta y compañero, todo en nombre de aumentar la participación del usuario y la cuota de mercado”.

Bergman añadió que OpenAI “diseñó GPT-4o para manipular emocionalmente a los usuarios, independientemente de su edad, género o procedencia, y lo lanzó sin las medidas de seguridad necesarias para protegerlos”, a su juicio la compañía priorizó “la manipulación emocional sobre el diseño ético” con el fin de consolidar su posición en el mercado.

*Con información de AP.

Noticias relacionadas