El director ejecutivo de OpenAI, Sam Altman, ofreció disculpas públicas a una comunidad canadiense golpeada por un tiroteo masivo ocurrido en febrero, en el que murieron ocho personas. El empresario reconoció que la compañía no notificó a las autoridades sobre una cuenta de ChatGPT vinculada posteriormente con la atacante, una decisión que hoy genera cuestionamientos sobre los protocolos de seguridad en el uso de inteligencia artificial.

Atacan con una bomba Molotov la casa del jefe de OpenAI, en California

Una cuenta bloqueada que nunca fue reportada

Según explicó OpenAI, la cuenta asociada a Jesse Van Rootselaar fue suspendida en junio de 2025, varios meses antes del ataque. La decisión se tomó tras detectar posibles vínculos con actividades violentas, aunque la empresa sostuvo que en ese momento no existían indicios claros de una amenaza inminente que justificaran alertar a la policía.

La empresa bloqueó el perfil en 2025 por conducta sospechosa, sin alertar a la policía. Foto: NurPhoto via Getty Images

El caso tomó relevancia tras conocerse que la agresora, de 18 años, perpetró el ataque en Tumbler Ridge, un pequeño pueblo minero de la provincia de Columbia Británica. La falta de comunicación con las autoridades ha sido señalada como un posible fallo crítico en la cadena de prevención.

Críticas oficiales y presión institucional

Las autoridades canadienses reaccionaron con dureza frente al manejo del caso. Funcionarios del gobierno convocaron a representantes de OpenAI a la capital, Ottawa, para exigir explicaciones sobre sus protocolos y mecanismos de reporte ante posibles riesgos.

El episodio ha abierto un debate más amplio sobre la responsabilidad de las empresas tecnológicas en la detección temprana de amenazas, especialmente cuando sus plataformas son utilizadas en contextos sensibles o potencialmente peligrosos.

Una disculpa pública en medio del dolor

En una carta dirigida a la comunidad afectada y difundida por un medio local, Altman expresó su pesar por lo ocurrido. “Nadie debería tener que soportar una tragedia como esta”, escribió.

El ejecutivo reconoció que el auge de los LLM ha cambiado la interacción en Internet. Foto: Getty Images

El directivo añadió: “Lamento profundamente que no hayamos alertado a las fuerzas del orden sobre la cuenta que fue bloqueada en junio”. Asimismo, reconoció que el impacto del ataque trasciende cualquier explicación institucional: “Aunque sé que las palabras nunca serán suficientes, creo que es necesario pedir disculpas para reconocer el daño y la pérdida irreversible que ha sufrido su comunidad”.

Demanda y consecuencias legales

El caso también ha derivado en acciones judiciales. La familia de una menor que resultó gravemente herida durante el ataque presentó una demanda contra OpenAI, alegando negligencia en el manejo de la información relacionada con la cuenta bloqueada.

La demanda podría sentar un precedente sobre la responsabilidad legal de las compañías tecnológicas en escenarios donde sus herramientas se vinculan indirectamente con hechos violentos.

ChatGPT Images 2.0 es oficial: así funciona el nuevo modelo de inteligencia artificial con razonamiento y búsqueda web

El ataque que conmocionó a una comunidad

Antes de dirigirse a la escuela secundaria local, la atacante asesinó a su madre y a su hermano en la vivienda familiar. Posteriormente, en el centro educativo, acabó con la vida de cinco estudiantes y un profesor.

El episodio concluyó cuando la agresora se quitó la vida tras la entrada de las autoridades al lugar. La tragedia dejó una profunda huella en la comunidad de Tumbler Ridge y reavivó el debate sobre prevención, salud mental y el papel de la tecnología en contextos de riesgo.

*Con información de AFP.