Los últimos años de este siglo se han caracterizado por un avance acelerado de la inteligencia artificial (IA). No obstante, esta herramienta también ha generado varías críticas alrededor del mundo y algunos gobiernos han pedido pausar su desarrollo.

Uno de los últimos en pronunciarse con respecto a este tema fue Eric Schmidt, ex CEO de Google entre 2001 y 2011, quien lanzó una preocupante predicción y aseguró que la humanidad podría estar en peligro.

La inteligencia artificial de ChatGPT cada vez se expande más | Foto: Bing Image Creator

El empresario manifestó este miércoles durante un evento The Wall Street Journal que la inteligencia artificial representa un riesgo existencial para la sociedad, puesto que podría hacer que las personas “hieran o maten”.

De acuerdo con el norteamericano, esta tecnología también tendría la capacidad en un futuro de encontrar vulnerabilidades dentro de los diferentes software que se utilizan en todos las altas instituciones. Asimismo, recalcó que todo esto parece sacado de la ficción.

“Hay escenarios, no hoy, sino razonablemente pronto, en los que estos sistemas podrán encontrar exploits de día cero (fallas de seguridad en el código) en problemas cibernéticos o descubrir nuevos tipos de biología”, indicó inicialmente.

Luego, añadió: “Ahora, esto es ficción hoy en día, pero es probable que su razonamiento sea cierto. Y cuando eso suceda, queremos estar preparados para saber cómo asegurarnos de que estas cosas no sean mal utilizadas por personas malvadas”.

Cabe mencionar que Schmidt recientemente presidió la Comisión de Seguridad Nacional de Estados Unidos sobre inteligencia artificial, donde también advirtió sobre los peligros de esta. Además, afirmó que cree poco probable que la nación norteamericana establezca una agencia reguladora.

El ex CEO de Google aseguró que la IA podría "lastimar" | Foto: 2022 Getty Images
Eric Schmidt habló de los peligros de la IA | Foto: 2022 Getty Images

¿Qué piden los expertos?

Elon Musk y cientos de expertos mundiales firmaron el mes pasado un llamado a hacer una pausa de seis meses en la investigación sobre las inteligencias artificiales más potentes, debido a que advierten que estas representan actualmente “grandes riesgos para la humanidad”.

En la petición, publicada en el sitio futureoflife.org, solicitan una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA y técnicas que ayuden a distinguir entre lo real y lo artificial.

“En los últimos meses, hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, precisaron.

Sam Altman, director de Open AI, empresa que diseñó ChatGPT, ha reconocido en diferentes oportunidades que tiene un poco de miedo de que su creación se utilice para la “desinformación a gran escala o ciberataques”.

Elon Musk pidió parar las investigaciones sobre la inteligencia artificial | Foto: AFP or Licensors
Elon Musk obtiene aprobación para proyecto de chips cerebrales | Foto: gettyimages

Entre los firmantes figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

“Es que la nueva generación de IA no se limita solo a difundir los contenidos, sino que puede producir el contenido por sí misma. Tenemos que entender que la IA es la primera tecnología de la historia que puede tomar decisiones por sí misma. Puede tomar decisiones sobre su propio uso”. Yuval Noah Harari, famoso historiador israeli que también firmó la petición.