Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

×

| 1/6/2019 12:10:00 AM

Robots: más tontos de lo que parecen

El mundo empieza a cansarse de los robots racistas, machistas y xenófobos, y de las promesas infladas de la inteligencia artificial.

Robots más tontos de lo que parecen: ¿y la inteligencia artificial? Robots: más tontos de lo que parecen Foto: 123RF

La poderosa maquinaria de mercadotecnia de las grandes tecnológicas hace aparecer, casi a diario, titulares en los medios que pintan un mundo inexistente. Las máquinas están lejos de parecerse a los humanos y falta mucho para que piensen como nosotros, pero cada máquina anunciada como “inteligente” hace sonar la caja registradora y produce una noticia. Sin embargo, durante el último año los robots sufrieron golpes de imagen suficientemente fuertes para encender las alarmas de lo que el científico británico Michael Wooldridge, de la Universidad de Oxford, llamó acertadamente “una posible burbuja robótica” a punto de explotar, como ocurrió con la famosa burbuja de las puntocom, dos décadas atrás.

La máquina heredó el prejuicio de los ingenieros.

Yoshua Bengio, director del grupo de investigación en aprendizaje profundo del MIT, y una autoridad reconocida en el campo de la inteligencia artificial (IA), afirma que esta en realidad debería llamarse estupidez artificial, porque “las máquinas todavía son demasiado tontas y solo estamos intentando que lo sean menos”. Son las opiniones de un científico que no tiene contratos con la industria y puede decir las cosas como son.

Le recomendamos: El trabajo del futuro, no será apocalíptico, pero sí desafiante

En marzo del año pasado un accidente automovilístico puso el primer gran dolor de cabeza para la industria de los carros que se conducen solos, cuya fecha de aparición en los mercados postergan año tras año. En una sesión de pruebas en Tempe, Arizona, un auto de Uber que se conducía solo arrolló a una mujer que cruzó la calle imprudentemente. La razón tuvo que ver con la incapacidad del vehículo de reconocerla como un humano. Ya se sabe que faltan todavía varios hervores antes que esta tecnología esté lista.

En octubre de 2018 Amazon suspendió la utilización de un programa inteligente que revisaba los currículos de aspirantes a cargos en la empresa. Se utilizó esta plataforma desde 2014 y se la consideraba una estupenda herramienta para buscar talentos, hasta que se supo que estaba cargada de prejuicios sexistas: prefería y recomendaba contratar hombres. Los desarrolladores transfirieron a la máquina sus sesgos machistas cuando la entrenaron para analizar las hojas de vida, dado que pusieron en su base de datos ejemplos mayoritariamente de currículos masculinos. La máquina heredó el prejuicio de los ingenieros.

Google debió enmendar el error de su software que clasificaba de gorilas a personas de raza negra.

Y eso confirma que las máquinas sí aprenden. El problema no radica en lo que los robots puedan hacer algún día (la ficción creada por Hollywood), sino en lo que los humanos hagan con ellos. Y así como IBM ha invertido presupuestos descomunales para lograr que su poderosa plataforma Watson diagnostique correctamente el cáncer y ayude a enfrentar un serio problema de salud de los humanos, hay empresarios con pretensiones más mundanas. El alcalde de Houston tuvo que suspender en septiembre la licencia para la construcción del primer burdel de robots que inversionistas canadienses habían planeado. Entre tanto, la empresa Megabots realizó su segunda pelea de robots gigantes en una planta metalúrgica abandonada, para darle todo el sabor “Terminator” al espectáculo de máquinas matándose entre sí.

Puede ver: El robot que entró al equipo de la Supersociedades para asistir en pleitos mercantiles

¿Es ese el mundo robotizado que la sociedad necesita? ¿Plataformas inteligentes como la robot Tay de Microsoft, retirada hace dos años porque defendió el Holocausto y ensalzó la figura de Hitler? ¿O los robots, actualmente en primeras pruebas, que utilizan algunas compañías financieras para analizar a los solicitantes de créditos, y que prefieren siempre a hombres blancos de entre 30 y 50 años porque sus historias de pago con mejores? Entre los muchos –la revista Wired contabilizó 31– problemas de Facebook en el último par de años, hay uno relacionado con racismo: el algoritmo que gestiona las campañas publicitarias tiende a ignorar como público objetivo del despliegue de anuncios a los usuarios de raza negra. Empresarios afro protestaron y, al parecer, los responsables corrigieron el error. En 2015 Google debió enmendar el terrible error de su software de etiquetado de fotos, que clasificaba como “gorilas” a las personas de raza negra. ¿De quién aprenden estas cosas las máquinas? Pues de sus creadores, la mayoría de ellos blancos anglosajones de entre 30 y 50 años, y de la clase media norteamericana.

La connotada científica británica Margaret Boden lo pone en estos términos: “Es claro que la inteligencia artificial sería otra cosa si hubiera habido más mujeres en el sector”. Ella fue la primera en cuestionar la fiebre japonesa de los robots que acompañan a ancianos, pues considera que no ofrecen la interacción que estos pacientes necesitan.

El mundo empieza a cansarse de los robots racistas, machistas y xenófobos, y de las promesas infladas de la inteligencia artificial.

En el mundo del entretenimiento también ocurre. Los algoritmos tienden a recomendar las películas de mayor aceptación por los usuarios y estas suelen ser las de mayor contenido violento o sexual. El público, en este caso, moldea los prejuicios de la máquina. Cuando se deja en manos de un algoritmo recomendar películas en Netflix, no se corren demasiados riesgos éticos. Pero cuando el algoritmo otorga créditos o admisiones en una universidad, el tema ético será fundamental.

De hecho, empiezan a florecer los estudios sobre moral de máquina. El MIT tiene un curso sobre “Ética y gobernanza de la inteligencia artificial”, en el que examina problemas como los sesgos de los algoritmos, la propiedad, el control y el acceso de las tecnologías de IA, así como las cuestiones relacionadas con el impacto en el empleo. “La innovación es importante pero no puede ser solo una vía para ganar dinero. Los programadores deben considerar el posible uso indebido de sus creaciones”, afirmó Joichi Ito, el célebre director del Media Lab de MIT y creador del curso mencionado.

Algunos expertos consideran que el problema se origina en los datos, más que en los prejuicios de los desarrolladores. La máquinas que reconocen imágenes y las clasifican, por ejemplo, aprenden a partir de lo que ven en los grandes bancos de fotos disponibles en Internet. Un informe publicado en Nature encontró que el 45 por ciento de las fotos en uno de estos bancos proviene de Estados Unidos y contiene mayoritariamente imágenes de gente blanca, a pesar de que Estados Unidos representa solo el 4 por ciento de la población mundial. Mientras tanto, China e India, que constituyen una tercera parte los habitantes del planeta, solo aportan tres por ciento de las imágenes en dicho banco.

“Es claro que la inteligencia artificial sería otra cosa si hubiera habido más mujeres en el sector”.

Y hay todavía dos campos en los que el problema es más preocupante. Uno, el impacto en el empleo, y el otro la maduración de las plataformas inteligentes especializadas en manipular las redes sociales. Hasta hace un año era posible identificar a simple vista una cuenta falsa, pero estas plataformas han evolucionado y hay robots capaces de gestionar blogs, creando sus contenidos a partir de copiar y pegar de otros, para lucir reales, y pueden poner comentarios sin que se note que es una máquina. La tecnopolítica cuenta hoy con herramientas que ayudan a influir en la opinión de un modo nunca visto. Durante 2018 crecieron las protestas contra plataformas de cibervigilancia capaces de hacer realidad la peor pesadilla orwelliana, como la que utilizan en China. Y como la que se proponía en Estados Unidos con el Proyecto Maven, que buscaba aplicar IA en escuadrones de drones militares. Por fortuna, los empleados de Google forzaron a la empresa a retirarse de esa iniciativa a mediados del año pasado.

También le puede interesar: ¿Tendría sexo con un robot?

No es un asunto de tecnofobia. Las alarmas provienen de voces autorizadas que siguen creyendo que las innovaciones deberían servir para algo mejor que construir prostíbulos de muñecas robóticas. 

EDICIÓN 1942

PORTADA

“De lo ilegal se encargan ellos”: las denuncias que tumbaron al general Parra

SEMANA revela los testimonios y las investigaciones por irregularidades en manejos de dinero que desembocaron en la salida del brigadier general César Parra, en medio del reciente remezón en el Ejército.

Queremos conocerlo un poco,
cuéntenos acerca de usted:

Maria,

Gracias por registrarse en SEMANA Para finalizar el proceso, por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Maria,

su cuenta aun no ha sido activada para poder leer el contenido de la edición impresa. Por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Para verificar su suscripción, por favor ingrese la siguiente información:

O
Ed. 1942

¿No tiene suscripción? ¡Adquiérala ya!

Su código de suscripción no se encuentra activo.