El gobierno de Donald Trump está considerando supervisar los modelos de inteligencia artificial antes de su lanzamiento, informó el lunes el diario The New York Times en un reporte que cita fuentes del Ejecutivo. La iniciativa marcaría un posible cambio en la forma en que Estados Unidos aborda el desarrollo y despliegue de esta tecnología.

Spotify lanza insignias para verificar artistas reales y frenar el contenido generado por inteligencia artificial

La Casa Blanca estudia un sistema de revisión previa para modelos de IA

De acuerdo con la información publicada, la Casa Blanca analiza una orden ejecutiva que crearía un grupo de trabajo integrado por directivos del sector tecnológico y funcionarios gubernamentales. El objetivo sería estudiar posibles procedimientos de revisión de nuevos modelos de inteligencia artificial antes de que lleguen al mercado.

Altos funcionarios del gobierno ya habrían comunicado estos planes a ejecutivos de Anthropic, Google y OpenAI la semana pasada, según el mismo reporte. La propuesta abre la puerta a un esquema de supervisión que, de concretarse, implicaría mayor intervención estatal en el desarrollo de sistemas avanzados de IA.

De la desregulación al control: un giro en la política tecnológica

El eventual cambio representa un giro significativo frente a la postura anterior de la administración. Donald Trump se había presentado como un defensor del desarrollo de la inteligencia artificial sin restricciones, llegando incluso a revertir requisitos de evaluación de seguridad impulsados durante la era Biden. En ese contexto, la regulación era descrita como una posible desventaja frente a la competencia con China.

Donald Trump había defendido previamente el desarrollo de la IA sin restricciones. Foto: AP

Sin embargo, según The New York Times, la creciente preocupación por el impacto de la IA en el empleo, la energía, la educación y la salud mental habría modificado el enfoque del gobierno.

El detonante inmediato de este debate habría sido la aparición de un nuevo modelo de IA llamado Mythos, desarrollado por Anthropic. La compañía afirmó que el sistema era “demasiado eficaz en la detección de vulnerabilidades informáticas como para publicarse sin riesgo”.

La Casa Blanca intervino en la expansión del modelo de IA Mythos de Anthropic por riesgos de seguridad

Seguridad nacional, ciberataques y presión política

Según el informe, uno de los factores clave detrás de esta posible regulación es el temor a que la inteligencia artificial pueda ser utilizada para potenciar ciberataques de gran escala, con consecuencias políticas y de seguridad nacional.

Funcionarios del gobierno estarían evaluando cómo estos modelos podrían ser aprovechados tanto en el ámbito militar como por agencias de inteligencia, incluyendo el Pentágono.

Funcionarios analizan el posible uso militar de la IA y su impacto en la seguridad nacional. Foto: Getty Images

No obstante, la Casa Blanca intentó moderar las expectativas. Un funcionario citado por The New York Times aseguró que los rumores sobre una posible orden ejecutiva eran “especulación”.

*Con información de AFP.