OpenAI enfrenta una nueva demanda presentada por la familia de una de las víctimas del tiroteo masivo ocurrido el año pasado en la Universidad Estatal de Florida (FSU). La acción judicial sostiene que ChatGPT habría “avivado y alentado” los “delirios” del presunto atacante, Phoenix Ikner.

Hijo amenazó de muerte a su madre y se atrincheró durante horas: pesadilla en Estados Unidos este domingo de celebración

El caso fue radicado en Tallahassee y se suma a la investigación penal que abrió el mes pasado el fiscal general de Florida, James Uthmeier, para determinar si la empresa “tiene responsabilidad penal” en el ataque.

La familia de Tiru Chabba, una de las dos personas asesinadas durante el tiroteo de abril de 2025, asegura que Ikner interactuó miles de veces con ChatGPT antes de cometer el crimen.

Según la demanda, el chatbot habría colaborado con aspectos logísticos del ataque, incluyendo orientación sobre el manejo de armas y recomendaciones sobre “a qué hora sería mejor encontrar la mayor cantidad de tráfico en el campus”.

La familia de una de las víctimas busca que la empresa implemente mayores medidas de seguridad en ChatGPT. Foto: NurPhoto via Getty Images

El documento judicial también afirma que Ikner subió fotografías de armas y municiones para que fueran identificadas por esta IA. De acuerdo con la denuncia, el sistema le indicó que la pistola Glock que había conseguido estaba diseñada para dispararse “de uso rápido bajo estrés”. Además, presuntamente le sugirió mantener el dedo fuera del gatillo hasta el momento de disparar.

ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”, dice la demanda.

El ataque dejó además a otras seis personas heridas. Ikner se declaró inocente y el inicio de su juicio está previsto para octubre.

Microsoft defendió su alianza con OpenAI en medio de acusaciones de Elon Musk

La familia de Chabba acusa a OpenAI de muerte por negligencia, negligencia grave, responsabilidad por productos y falta de advertencia, entre otros cargos.

“OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, señala la demanda. “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.

ChatGPT habría ayudado al atacante con información sobre armamento y movilidad dentro del campus. Foto: Getty Images

Amy Willbanks, abogada de la familia, afirmó que OpenAI debe reducir y eliminar los riesgos asociados con el chatbot antes de permitir su acceso masivo.

“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, dijo Willbanks durante una conferencia de prensa el lunes.

OpenAI respondió que, aunque el tiroteo en FSU representó una “tragedia”, ChatGPT “no es responsable”.

Ya es imposible hablar como antes con ChatGPT: ahora la IA lo validará rápido y será reportado

“En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”, dijo el portavoz de OpenAI, Drew Pusateri.

Actualmente, la empresa enfrenta al menos diez demandas de familias que sostienen que algunas personas se causaron daño a sí mismas o a otros después de interactuar con ChatGPT.