Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

×

| 3/5/2012 12:00:00 AM

¿Dejaría a sus hijos con un robot?

Aún no vivimos en el mundo que imaginó la ficción de los 60, pero estamos cerca de convivir en nuestros espacios íntimos con robots... Antes de hacerlo, hay que establecer los límites.

;
BBC
Aunque estamos lejos de vivir como en la serie animada Los supersónicos, estamos cerca de guerras inhumanas, en el sentido de que los hombres no serán quienes enfrenten físicamente al enemigo, sino sus máquinas.
 
Autos blindados que se manejan solos, sorteando toda clase de obstáculos y detectando peligros en cualquier terreno ya son una realidad, y de eso a armarlos y programarlos para usar esas armas, no hay mucho.
 
Los aviones no tripulados que ya usa Estados Unidos en lugares como Pakistán y hasta México pueden ser fácilmente precursores de ese futuro que ya casi es presente.
 
Lejos de los campos de batalla, a pesar de que falta mucho para tener un mayordomo androide, ya hay enfermeros robots, y se habla de casas y oficinas inteligentes.
 
Y mucho de esto es atractivo.
 
El problema es precisamente que los robots distan de ser listos.
 
"Hablamos de 'casas inteligentes' ¡No hemos logrado siquiera enseñarles sentido común!", dice el experto en ética robótica de la Universidad de Sussex, Blay Whitby.
 
¿Dónde está el futuro?
 
Cuando se le pregunta a los científicos, que han pasado años haciendo realidad lo que la cultura popular pronosticó en los años '60, por qué el futuro no ha llegado, responden que sencillamente no habíamos calculado bien cuán difícil era ser inteligente.

La cantidad de procesos, reflexiones, intuiciones, sensaciones que implica tomar la más simple de las decisiones -patear un balón- es tal que sólo la naturaleza ha sido capaz de programarlo.
 
Los robots, dice Whitby, "son admirables en cierto sentido, pero muchos problemas simples no han sido resueltos. Algo que descubrimos al trabajar en inteligencia artificial (IA) durante 54 años -si uno toma la fecha de la Conferencia de Domat- es que la inteligencia es mucho más complicada y multidimensional de lo que pensamos al principio".
 
Por ejemplo, si uno pensaba que ser inteligente es poder jugar al ajedrez, entonces las computadoras lo son. Pero si uno quiere que un robot se pasee por la sala de la casa o encuentre las medias, ese es un problema que aún no se ha podido resolver.
 
Y resulta que encontrar las medias no es un problema trivial.
 
"Un ejemplo de algo en lo que ha estado trabajando la gente desde el principio es visión para las computadoras. Una aplicación de ello son las cámaras CCTV, que están en todas partes. Pero tenemos que pagarle a humanos para que miren las pantallas para saber si algo malo está pasando", señala el científico.
 
"Uno pensaría, dado que se trata de un patrón de señales electrónicas recogidas por la cámara, que ya habríamos sido capaces de diseñar un programa de computador que reconociera cuando algo diferente estuviera pasando -no tiene que ser muy sofisticado, sólo reconocer que lo que está pasando es inusual y disparar una alarma- pero nadie lo ha podido hacer. Están trabajando en ello y quizás suceda pronto pero ese problema tan simple no ha sido solucionado por cinco décadas", añade.
 
El problema es que los humanos tienen que entender cómo lo hacen ellos, antes de poderlos programar.
 
"No sabemos cómo lo hacemos, y hay muchas cosas que asumíamos que sabíamos cómo lo hacíamos, porque lo hemos estado haciendo durante miles de años, pero resulta que no sabemos cómo sucede".
 
En el campo de batalla
 
Uno de los escenarios en los que se podría pensar que los robots serían más bienvenidos es la guerra.
 
Sin embargo, según cuenta Whitby, los militares están muy conscientes tanto de los beneficios, como de los problemas de depender de una máquina en situaciones peligrosas.
 
"Cuando voy a conferencias y escucho a los militares, me da la impresión de que ellos no quieren más inteligencia en sus robots. Quieren ser ellos quienes los manejan. Para los soldados que van a estar en el terreno, un robot inteligente es un soldado tonto que van a tener que cuidar. Se va a perder o dañar o perder contacto y ellos van a tener que ir a buscarlo".
 
Por su parte, los altos rangos prefieren que no haya interferencias en la cadena de comando.
 
"Ellos necesitan saber quién es responsable. Como dijo un general en una de las conferencias que atendí: "mientras yo esté en control, siempre habrán dedos humanos en el gatillo".
 
Así que, a pesar de que mucha financiación en el campo de la robótica proviene de los departamentos de Defensa, según Whitby, el deseo de autonomía viene más bien de los fabricantes.
 
Y en ese sentido surgen varias preguntas, que es lo que incumbe a un experto en ética robótica.
 
Si un robot sofisticado se daña en territorio enemigo, ¿qué se debe hacer? ¿Debería tener la posibilidad de matar a gente en defensa propia? Quizás tendría sentido, pero ¿qué pasa si se trata de niños jugando? ¿O es mejor explotarlo a control remoto? ¿Incluso si se dañó en medio de una zona poblada?
 
En el hogar
 
Interrogantes de este estilo se presentan no sólo en las zonas en conflicto sino también en la vida cotidiana.

Una de las cosas que le preocupan a eticistas como Whitby es que, como todos sabemos, la gente tiene a esconderse detrás de las computadoras. No dicen: "no le permitimos hacer eso" sino "la computadora no deja que usted haga eso".
 
"No ha habido una discusión acerca de cuáles tareas pueden ser llevadas a cabo por una computadora y cuáles no deberían dejarse en sus manos", señala el experto.
 
"Hoy en día, cuando uno va a sacar una tarjeta de crédito, habla con un ser humano, pero la decisión la toma una computadora. Así que, ¿cuán lejos le gustaría que eso se extendiera? ¿Le parecería bien que lo juzgara una computadora en el tribunal? Quizás sí, pero tiene que haber una discusión, pues hasta ahora la razón por la cual se utilizan computadoras es para ahorrar en la nómina".
 
Otro buen ejemplo son las niñeras robot... ¿dejaría a sus niños bajo el cuidado de una computadora? En este momento en Europa eso sería ilegal. Pero puede haber ventajas: el robot le puede llamar al celular si algo pasa o tomar una foto si alguien viene a secuestrarlos.
 
Nada de eso es malo o bueno, resalta Whitby, pero tiene que haber un debate sobre cómo lo vamos a manejar, antes de que la situación nos maneje a nosotros.
 
"Lo que hay que recordar siempre es que las computadoras son máquinas y no humanos".
¿Tiene algo que decir? Comente

Para comentar este artículo usted debe ser un usuario registrado.

EDICIÓN 1842

PORTADA

La voltereta de la Corte con el proceso de Andrade

Los tres delitos por los cuales la Corte Suprema procesaba al senador se esfumaron con la llegada del abogado Gustavo Moreno, hoy ‘ad portas’ de ser extraditado. SEMANA revela la historia secreta de ese reversazo.