OpenAI enfrenta una nueva demanda presentada por la familia de una de las víctimas del tiroteo masivo ocurrido el año pasado en la Universidad Estatal de Florida (FSU). La acción judicial sostiene que ChatGPT habría “avivado y alentado” los “delirios” del presunto atacante, Phoenix Ikner.
El caso fue radicado en Tallahassee y se suma a la investigación penal que abrió el mes pasado el fiscal general de Florida, James Uthmeier, para determinar si la empresa “tiene responsabilidad penal” en el ataque.
La familia de Tiru Chabba, una de las dos personas asesinadas durante el tiroteo de abril de 2025, asegura que Ikner interactuó miles de veces con ChatGPT antes de cometer el crimen.
Según la demanda, el chatbot habría colaborado con aspectos logísticos del ataque, incluyendo orientación sobre el manejo de armas y recomendaciones sobre “a qué hora sería mejor encontrar la mayor cantidad de tráfico en el campus”.
El documento judicial también afirma que Ikner subió fotografías de armas y municiones para que fueran identificadas por esta IA. De acuerdo con la denuncia, el sistema le indicó que la pistola Glock que había conseguido estaba diseñada para dispararse “de uso rápido bajo estrés”. Además, presuntamente le sugirió mantener el dedo fuera del gatillo hasta el momento de disparar.
ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”, dice la demanda.
El ataque dejó además a otras seis personas heridas. Ikner se declaró inocente y el inicio de su juicio está previsto para octubre.
La familia de Chabba acusa a OpenAI de muerte por negligencia, negligencia grave, responsabilidad por productos y falta de advertencia, entre otros cargos.
“OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, señala la demanda. “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.
Amy Willbanks, abogada de la familia, afirmó que OpenAI debe reducir y eliminar los riesgos asociados con el chatbot antes de permitir su acceso masivo.
“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, dijo Willbanks durante una conferencia de prensa el lunes.
OpenAI respondió que, aunque el tiroteo en FSU representó una “tragedia”, ChatGPT “no es responsable”.
“En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”, dijo el portavoz de OpenAI, Drew Pusateri.
Actualmente, la empresa enfrenta al menos diez demandas de familias que sostienen que algunas personas se causaron daño a sí mismas o a otros después de interactuar con ChatGPT.