Estados Unidos

ChatGPT habría ayudado a planear el tiroteo en la Universidad Estatal de Florida, señala nueva demanda

El atacante habría consultado a la IA cuál era el mejor momento para cometer el ataque y cómo utilizar distintas armas.

GoogleSiga las noticias internacionales en Discover para conocer los hechos globales de hoy

12 de mayo de 2026 a las 9:27 a. m.
La demanda sostiene que el presunto atacante interactuó miles de veces con ChatGPT antes del tiroteo.
La demanda sostiene que el presunto atacante interactuó miles de veces con ChatGPT antes del tiroteo. Foto: CFOTO/Future Publishing via Gett

OpenAI enfrenta una nueva demanda presentada por la familia de una de las víctimas del tiroteo masivo ocurrido el año pasado en la Universidad Estatal de Florida (FSU). La acción judicial sostiene que ChatGPT habría “avivado y alentado” los “delirios” del presunto atacante, Phoenix Ikner.

Hijo amenazó de muerte a su madre y se atrincheró durante horas: pesadilla en Estados Unidos este domingo de celebración

El caso fue radicado en Tallahassee y se suma a la investigación penal que abrió el mes pasado el fiscal general de Florida, James Uthmeier, para determinar si la empresa “tiene responsabilidad penal” en el ataque.

La familia de Tiru Chabba, una de las dos personas asesinadas durante el tiroteo de abril de 2025, asegura que Ikner interactuó miles de veces con ChatGPT antes de cometer el crimen.

Según la demanda, el chatbot habría colaborado con aspectos logísticos del ataque, incluyendo orientación sobre el manejo de armas y recomendaciones sobre “a qué hora sería mejor encontrar la mayor cantidad de tráfico en el campus”.

Con el tiempo, la plataforma pasó de ser un asistente a un repositorio central de su trabajo.
La familia de una de las víctimas busca que la empresa implemente mayores medidas de seguridad en ChatGPT. Foto: NurPhoto via Getty Images

El documento judicial también afirma que Ikner subió fotografías de armas y municiones para que fueran identificadas por esta IA. De acuerdo con la denuncia, el sistema le indicó que la pistola Glock que había conseguido estaba diseñada para dispararse “de uso rápido bajo estrés”. Además, presuntamente le sugirió mantener el dedo fuera del gatillo hasta el momento de disparar.

ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”, dice la demanda.

El ataque dejó además a otras seis personas heridas. Ikner se declaró inocente y el inicio de su juicio está previsto para octubre.

Microsoft defendió su alianza con OpenAI en medio de acusaciones de Elon Musk

La familia de Chabba acusa a OpenAI de muerte por negligencia, negligencia grave, responsabilidad por productos y falta de advertencia, entre otros cargos.

“OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, señala la demanda. “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.

OpenAI busca mejorar la experiencia del usuario con actualizaciones y nuevas funciones.
ChatGPT habría ayudado al atacante con información sobre armamento y movilidad dentro del campus. Foto: Getty Images

Amy Willbanks, abogada de la familia, afirmó que OpenAI debe reducir y eliminar los riesgos asociados con el chatbot antes de permitir su acceso masivo.

“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, dijo Willbanks durante una conferencia de prensa el lunes.

OpenAI respondió que, aunque el tiroteo en FSU representó una “tragedia”, ChatGPT “no es responsable”.

Ya es imposible hablar como antes con ChatGPT: ahora la IA lo validará rápido y será reportado

En este caso, ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”, dijo el portavoz de OpenAI, Drew Pusateri.

Actualmente, la empresa enfrenta al menos diez demandas de familias que sostienen que algunas personas se causaron daño a sí mismas o a otros después de interactuar con ChatGPT.