Inteligencia artificial
Varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio o Geoffrey Hinton, abogaron por “la elaboración y la ratificación de un tratado internacional sobre la IA”, para reducir los riesgos “potencialmente catastróficos que los sistemas avanzados hacen pesar sobre la humanidad”. | Foto: Getty Images

Mundo

Varios países firman declaración mundial sobre riesgos de la Inteligencia Artificial: “Podrían desestabilizar las sociedades”

Estados Unidos, China, la UE y una veintena de otros países firmaron el miércoles en el Reino Unido la Declaración de Bletchley para un desarrollo “seguro” de la inteligencia artificial (IA), en la primera cumbre internacional sobre el auge de esta tecnología.

Redacción Semana
1 de noviembre de 2023

“Esta declaración histórica marca el comienzo de un nuevo esfuerzo mundial para aumentar la confianza del público en la IA, garantizando que sea segura”, dijo el primer ministro británico, Rishi Sunak en X (ex Twitter). El documento, entre cuyos firmantes también figuran Brasil y Chile, subraya “la necesidad urgente de comprender y gestionar colectivamente los riesgos potenciales” de la IA.

Ante el creciente potencial de modelos como ChatGPT, la declaración de Bletchley “muestra que, por primera vez, el mundo se reúne para identificar el problema y destacar sus oportunidades”, subrayó a AFP la ministra británica de Tecnología, Michelle Donelan.

Dos cumbres internacionales sobre la IA tendran lugar a posteriori, una en Corea del Sur -dentro de seis meses- y otra en Francia, dentro de un año, añadió la ministra desde el emblemático centro donde se descifraron los códigos secretos nazis en la Segunda Guerra Mundial.

Paralelamente, al encuentro, la vicepresidenta estadounidense Kamala Harris debe anunciar en un discurso en Londres la creación de un instituto sobre la seguridad de la inteligencia artificial en Washington.

Inteligencia artificial
El revelador estudio con cámaras de IA para ayudar a la fauna salvaje | Foto: Ilustración creada con la IA de Bing Image Creator

Esta estructura -similar a la que también anunció el Reino Unido- reunirá a expertos para establecer “directivas” y evaluar los modelos de IA más avanzados para “identificar y mitigar” los riesgos, según la Casa Blanca. Las IA generativas -capaces de producir texto, sonidos o imágenes en cuestión de segundos- progresaron exponencialmente en los últimos años y las próximas generaciones de estos modelos aparecerán en el verano.

Conllevan grandes esperanzas para el campo de la medicina y la educación, pero también podrían desestabilizar las sociedades, permitir la fabricación de armas o eludir el control humano, advierte el gobierno británico.

A puerta cerrada

Después de este primer día dedicado a los peligros potenciales de una IA más avanzada, se esperan representantes políticos de alto nivel el jueves en Bletchley Park. Entre ellos, la presidenta de la Comisión Europea, Ursula von der Leyen, el secretario general de la ONU, Antonio Guterres, y la jefa del gobierno italiano, Giorgia Meloni.

El multimillonario estadounidense y empresario estrella Elon Musk, presente en la cumbre el miércoles, intercambiará con el primer ministro británico Rishi Sunak el jueves por la noche.

Elon Musk, CEO de Tesla y propietario de X.
Elon Musk, CEO de Tesla y propietario de X. | Foto: Bloomberg via Getty Images

“Nuestro objetivo es establecer un marco para una mejor comprensión (...), y para que haya al menos un árbitro independiente que pueda observar lo que están haciendo las empresas de la IA y dé la señal de alarma si algo le preocupa”, precisó Musk a la prensa. “Mi esperanza para esta cumbre es que haya un consenso internacional sobre la comprensión inicial de la IA avanzada”, añadió.

En una carta abierta publicada el martes, varios de los “padres fundadores” de esta tecnología, como Yoshua Bengio o Geoffrey Hinton, abogaron por “la elaboración y la ratificación de un tratado internacional sobre la IA”, para reducir los riesgos “potencialmente catastróficos que los sistemas avanzados hacen pesar sobre la humanidad”.

El reto consiste en establecer salvaguardias sin obstaculizar la innovación para los laboratorios de IA y los gigantes tecnológicos. La UE y Estados Unidos, a diferencia del Reino Unido, eligieron el camino de la regulación.

La semana pasada, varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) acordaron hacer públicas algunas de sus políticas de seguridad de la IA a petición del Reino Unido.

Le preguntan a la IA cómo exterminar a una persona y sus respuestas generan miedo
Logo de OpenAI. | Foto: NurPhoto via Getty Images

En una carta abierta dirigida a Rishi Sunak, un centenar de organizaciones, expertos y activistas internacionales lamentaron que esta cumbre se celebre a “puerta cerrada”, dominada por los gigantes de la tecnología y con un acceso limitado para la sociedad civil.

*Con información de AFP.