Martes, 6 de diciembre de 2016

| 2015/10/15 12:00

El mundo ante el peligro de los ‘robots asesinos’

Científicos como Stephen Hawking y el cofundador de Apple, Steve Wozniak, pidieron la prohibición del uso de la inteligencia artificial para armas ofensivas autónomas.

La inteligencia artificial generalmente se define como un programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje. Foto: Laura Encinales

Desde que se planteó la inteligencia artificial (IA), entusiastas y críticos han postulado argumentos a favor y en contra. Algunos, por ejemplo, advierten sobre el peligro que representa para la especie humana, porque abarataría el costo de la guerra y llevaría a las naciones a utilizarla como mecanismo principal de solución de conflictos. Otros, por su parte, sostienen que mejoraría la calidad de vida de la humanidad, tanto en términos de salud como de trabajo.

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", recuerda una carta publicada con ocasión de la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) en Buenos Aires este año. La conferencia tuvo alrededor de 1.200 investigadores de todo el mundo y muchos de ellos fueron firmantes de dicha carta.

Toby Walsh, profesor de inteligencia artificial en la Universidad New South Wales (Australia) y uno de los firmantes, sostuvo que "todas las tecnologías pueden ser usadas para el bien o para el mal", según un comunicado divulgado en la capital argentina.

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en algunos años, no décadas, y hay mucho en juego", añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París y Berlín.

Pese a advertir sobre el peligro de su uso, Walsh fue enfático en la defensa del desarrollo de la IA argumentando que puede ser usada para enfrentar muchos de los problemas más acuciantes de la sociedad actual, como la inequidad y la pobreza, el creciente costo del cuidado de la salud y el impacto del calentamiento global.

Entre los firmantes también figuran el empresario de altas tecnologías Elon Musk, presidente de Tesla (coches eléctricos), SolarCity y SpaceX (tecnología espacial); así como el nobel de Física Frank Wilczek o el cofundador de Skype, Jaan Tallinn.

¿Quién es el enemigo?

"La diferencia entre las armas autónomas y los drones que estamos viendo en Irak y en otros lugares es que no hay un ser humano que intervenga en el proceso", le explicó Walsh a AFP.

"En estos casos” –continuó– “tenemos un soldado con un control remoto manejando ese dron y él, no el dron, es quien toma las decisiones de matar o no matar. Acá, en cambio, estamos hablando de un computador tomando decisiones de vida o muerte y eso significa cruzar el límite moral".

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques indiscriminados –y con efectos desproporcionados– para la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla, pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentista; las naciones, incluso, se verían propensas al uso de las armas como mecanismo de solución de conflictos.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener”, por lo que será “solo cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de terroristas y dictadores y señores de la guerra que deseen perpetrar limpiezas étnicas, etc." dice el texto antes mencionado.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad", pero "el inicio de una carrera armamentista de inteligencia artificial militar es una mala idea", dicen los firmantes.

Otra visión

El investigador en IA de la Universidad Estatal de Buenos Aires, Ricardo Rodríguez, le quitó dramatismo al tema en sus declaraciones a AFP en el marco de la Conferencia en Buenos Aires.

"Hawking cree que estamos cerca del Apocalipsis con la robótica y que al final la inteligencia artificial va a competir con la inteligencia humana, pero lo cierto es que se está lejos de hacer robots bélicos asesinos", sostuvo Rodríguez, uno de los organizadores del encuentro.

A raíz del debate el experto recordó que "hace 20 años se hablaba del peligro de la clonación y fíjese cómo estamos ahora", queriendo decir que aún no se ha hecho nada al respecto.

La carta publicada en Buenos Aires, sin embargo, fue enviada a la Organización de las Naciones Unidas para que esta impulse la prohibición de sistemas de armas autónomas ofensivas. Existe un precedente de prohibición de armas todavía inexistentes cuando en 1998 se prohibieron las armas láser cegadoras antes de ser producidas en masa.

"¿Pueden las máquinas salvar vidas? ¿Llegarán a tener conciencia? ¿Jugarán a Angry Birds mejor que nosotros?", se preguntan los investigadores que participan del encuentro.

"Este es un momento emocionante para ser un investigador en IA. La inteligencia artificial se está desarrollando a un ritmo fenomenal con nuevas aplicaciones cada vez más increíbles", dicen los entusiastas.


Con información de AFP.

¿Tiene algo que decir? Comente

Para comentar este artículo usted debe ser un usuario registrado.