POLÍTICA

China alerta al mundo: asegura que la IA en el terreno militar crearía un apocalipsis como en “Terminator”

El país alerta sobre el peligro de “dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos”.

GoogleSiga las noticias internacionales en Discover para conocer los hechos globales de hoy

11 de marzo de 2026 a las 6:42 a. m.
"Una distopía como la que se describe en la película estadounidense 'Terminator' podría convertirse algún día en realidad"
"Una distopía como la que se describe en la película estadounidense 'Terminator' podría convertirse algún día en realidad" Foto: Fotomontaje Getty

China advirtió este miércoles un escenario al que muchos le temen. El país comunicó al gobierno estadounidense que un uso desmesurado de la inteligencia artificial (IA) en el ámbito militar podría sumir al mundo en el apocalipsis de la película “Terminator”, donde las máquinas toman el poder.

Estados Unidos mantiene actualmente un intenso debate ético sobre las aplicaciones militares de la IA. El gobierno del presidente Donald Trump está inmerso en un pulso con la “start-up” estadounidense Anthropic, a la que impuso sanciones.

Esta empresa, especializada en IA, se niega a permitir que el ejército de su país utilice su tecnología sin restricciones, tal y como exige la administración, en particular para la vigilancia masiva de la población o la automatización de ataques y bombardeos con consecuencias mortales.

Drones marinos son usados en la guerra entre Rusia y Ucrania
China cuestiona "continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones y permitir que influya excesivamente en las decisiones bélicas" Foto: Creación de la IA de Bing image creator

Según varios medios, los modelos tecnológicos de Anthropic se utilizaron en la preparación de la ofensiva israel-estadounidense contra Irán que desató una guerra en Oriente Medio.

“Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico”, indicó este miércoles Jiang Bin, portavoz del Ministerio de Defensa chino.

“Una distopía como la que se describe en la película estadounidense ‘Terminator’ podría convertirse algún día en realidad”, subrayó en un comunicado, en respuesta a una pregunta sobre la voluntad de Washington de dar al ejército estadounidense acceso ilimitado a la IA.

Inteligencia artificial reveló cómo se podría producir una nueva guerra mundial.
El Departamento de Defensa estadounidense añadió la semana pasada a Anthropic a su lista de empresas que suponen un “riesgo para la seguridad nacional en materia de suministros” Foto: Ilustración generada por IA Bing Image Creator

“Terminator” se estrenó en 1984, con el actor Arnold Schwarzenegger como protagonista. Describe un futuro apocalíptico en el que, en 2029, unos robots controlados por una inteligencia artificial superior luchan contra los seres humanos.

Los nuevos modelos de IA de China que buscan reducir la brecha con Estados Unidos

El Departamento de Defensa estadounidense añadió la semana pasada a Anthropic a su lista de empresas que suponen un “riesgo para la seguridad nacional en materia de suministros” elaborada por el Pentágono, en respuesta a la negativa de la empresa a levantar las restricciones de uso de su IA.

Esta inclusión obliga a todos los proveedores a prescindir inmediatamente de Anthropic y de su asistente de IA generativa Claude en el marco de sus servicios a la dependencia gubernamental.

La IA, también el debate en la guerra en el medio oriente

La guerra en Oriente Medio ilustra la creciente importancia de la inteligencia artificial en los conflictos, especialmente para el análisis de información y la selección de objetivos, pero su fiabilidad y su papel en el proceso de decisión de los ataques siguen siendo objeto de acalorados debates.

Guerra en Gaza, en Ucrania, la captura de Nicolás Maduro: la IA se ha convertido en un componente esencial en toda operación militar.

DeepSeek: todo lo que debe saber sobre el nuevo asistente de IA chino si desea usarlo

Por ahora se desconocen los usos concretos de la IA en el conflicto actual en Oriente Medio. Sin embargo, según los expertos, es probable que Israel y Estados Unidos -que han llevado a cabo miles de bombardeos contra Irán desde el inicio de la guerra el 28 de febrero- la hayan utilizado, especialmente para acelerar la realización de las operaciones.

Hoy en día, “todas las potencias militares importantes invierten enormemente en las aplicaciones militares de inteligencia artificial”, afirma Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales.

“Prácticamente todas las funciones militares pueden potenciarse con la IA”, agrega la investigadora, citando entre otras “la logística, el reconocimiento, la observación, la guerra de información, la guerra electrónica, la ciberseguridad”.

Aceleración de la “kill chain”

Además de su aplicación en drones de ataque y armas semiautomáticas, uno de los usos más conocidos de estas tecnologías es la reducción de lo que los militares llaman la “kill chain”, es decir, el tiempo entre la detección de un objetivo y el ataque.

El ejército estadounidense utiliza la plataforma Maven Smart System (MSS), creada por Palantir, que le permite identificar objetivos potenciales y clasificarlos jerárquicamente.

Según The Washington Post, el modelo IA de Anthropic, Claude, está integrado en Maven y aumenta sus capacidades de identificación y simulación.

Las empresas Palantir y Anthropic no respondieron a las solicitudes de AFP.

Los algoritmos “nos permiten procesar la información mucho más rápido y, sobre todo, ser más exhaustivos”, explica Bertrand Rondepierre, que dirige la agencia encargada de desarrollar la IA en el ejército francés (Amiad).

La IA permite analizar enormes cantidades de datos, “desde imágenes de satélite, radar, electromagnéticas, sonido, imágenes de drones, hasta videos en tiempo real en ocasiones”, agrega el ingeniero.

“¿Quién es responsable?”

El uso de la IA plantea sin embargo numerosas cuestiones morales y jurídicas, en particular sobre el control humano de estas tecnologías.

El debate surgió especialmente con la guerra en Gaza, donde los israelíes utilizaron un programa bautizado “Lavender” para identificar objetivos en el territorio palestino, con un margen de error.

Misiles de crucero en el fondo de la bandera de Irán. El concepto de conflicto militar en el Golfo Pérsico. La amenaza de guerra.
“Si algo sale mal, ¿quién es responsable?”, señala Peter Asaro, presidente de la oenegé Comité internacional para el control de las armas robotizadas. Foto: Getty Images

Lavender pudo utilizarse en Gaza, según Laure de Roucy-Rochegonde, “porque se trataba de un territorio muy reducido” y estaba “asociado a un sistema de vigilancia en masa” de los habitantes del enclave costero. “Parece menos probable que un sistema de esta envergadura se haya implantado en Irán”, considera.

“Si algo sale mal, ¿quién es responsable?”, señala Peter Asaro, presidente de la oenegé Comité internacional para el control de las armas robotizadas.

Asaro citó el presunto bombardeo de una escuela en Irán, en la ciudad de Minab, que causó 150 muertos según las autoridades iraníes. Ni Estados Unidos ni Israel han reconocido ser los autores de este ataque, pero Washington dijo que está investigando.

La ONU exigió que la investigación sea “rápida” y “transparente”, y esperó que “los responsables rindan cuentas”.

Varios medios, entre ellos The New York Times, afirman que el edificio se encontraba cerca de dos emplazamientos de los Guardianes de la Revolución iraníes.

“No distinguieron la escuela de la base militar como deberían haber hecho (...) pero ¿quiénes son?”, se pregunta Peter Asaro. ¿Humanos o máquinas?

Si se utilizó la IA, la cuestión clave, según él, es saber “cuál es la antigüedad de los datos” empleados y si se trata de un “error de base de datos”.

“Confianza” y “control”

Para Bertrand Rondepierre, pensar que las IA “operan sin que nadie tenga el control” es “ciencia ficción”. En Francia, “el mando militar está en el centro de la acción y de la concepción de estos sistemas”, señala.

“Ningún responsable militar aceptaría utilizar la IA si no tiene confianza y control sobre lo que hace”, agrega. “Saben qué riesgos conlleva, cuáles son los márgenes de maniobra de estos sistemas y en qué contexto pueden utilizarlos, con qué nivel de confianza”, asegura Rondepierre.

El uso de la IA por parte de los ejércitos se encuentra, en cualquier caso, en una fase “muy inicial”, explica Benjamin Jensen, del centro de reflexión CSIS en Washington, que participó durante los últimos diez años en experimentos sobre la IA y la toma de decisiones militares.

Los ejércitos aún no han “replanteado fundamentalmente la forma en que planifican y llevan a cabo las operaciones para aprovechar al máximo estas innovaciones”, agrega. “Probablemente hará falta toda una generación para que comprendamos realmente cómo explotar todo esto”.

Reportaje de AFP