Con el avance de la tecnología, los gobiernos van actualizando la forma en la que trabajan y coordinan acciones militares. Por ejemplo, se ha priorizado en más de 100 países del mundo el uso de drones no tripulados para atacar objetivos y, recientemente, el almirante Brad Cooper afirmó que la IA está ayudando a procesar los datos en el marco de la guerra con Irán.

Enviados de Estados Unidos viajan a Pakistán sin garantía de negociación directa con Irán

Por esta razón, Google está en conversaciones con el Departamento de Defensa para implementar su modelo insignia de IA, Gemini, para trabajos clasificados.

Frente a esto, más de 600 empleados de Google pidieron el lunes que la compañía rechace este histórico acuerdo propuesto con el Pentágono que permitiría que su tecnología de inteligencia artificial se utilice en operaciones militares clasificadas, según un comunicado.

No es la primera vez que Estados Unidos busca servicios de inteligencia artificial para poder planificar sus operaciones. Foto: Getty Images/iStockphoto

La carta, dirigida al director ejecutivo de Google, Sundar Pichai, indicó que “los trabajos clasificados son, por definición, opacos (...) Ahora mismo, no hay manera de garantizar que nuestras herramientas no se utilicen para causar daños terribles o erosionar las libertades civiles lejos del escrutinio público. Estamos hablando de cosas como perfilar a personas o apuntar contra civiles inocentes”.

Google no respondió de inmediato a la solicitud de comentarios. Un aspecto relevante del comunicado es que más de 20 directores, directores sénior y vicepresidentes están entre los firmantes.

El gigante tecnológico es una de las compañías que compiten por llenar el vacío que dejó Anthropic para ser el próximo proveedor de IA del gobierno en trabajos clasificados y no clasificados. Actualmente, Google tiene un contrato con el Pentágono para trabajos no clasificados a través de un programa conocido como genAI.mil., por ello se busca centralizar todo con una sola empresa.

Activos digitales: ¿los afecta el conflicto entre Estados Unidos e Irán? Así se han comportado este año

Anthropic demandó al Pentágono por su designación como “riesgo para la cadena de suministro”, después de que la compañía solicitara que su tecnología no se utilizara para la vigilancia masiva en Estados Unidos ni para una guerra automatizada.

Según la misiva, Google ha propuesto un lenguaje contractual que evitaría que Gemini sea usado con fines de vigilancia doméstica masiva o el desarrollo de armas autónomas sin que tengan un control humano apropiado.

La inteligencia artificial de Google tiene contemplada una cláusula para evitar la vulneración de derechos a ciudadanos. Foto: Getty Images

El Pentágono, sin embargo, ha presionado para que se utilice una redacción amplia de “todos los usos legales”, que, dice, es necesaria para mantener la flexibilidad operativa.

Los empleados dicen que las salvaguardias propuestas son técnicamente inaplicables y señalan la política del Pentágono que prohíbe que entidades externas impongan controles sobre sus sistemas de IA: “Si la dirección realmente se toma en serio la prevención de daños futuros, debe rechazar por completo, por ahora, las cargas de trabajo clasificadas”.

*Con información de AFP