Una protesta anti-Trump en Washington, el 20 de enero de 2017. Foto: Mario Tama / Getty Images.

Mutantes digitales IV

El algoritmo imposible, redes sociales y noticias falsas

Las noticias falsas que se multiplican en las redes sociales no son simplemente un efecto indeseado de una tecnología. El problema es mucho más complejo: la sociedad no está infecta de falsedad, en muchos casos ella misma la produce.

Carlos Cortés* Bogotá
22 de noviembre de 2017

Sentados frente al comité judicial del Senado estaban Google, Facebook y Twitter. Los gigantes postrados. El turno para preguntar es del senador demócrata Al Franken, conocido por poner a sus interrogados en el asador como si fueran presas de pollo. El tema es la manipulación rusa en redes sociales durante las elecciones presidenciales de 2016 en Estados Unidos. Es 31 de octubre de 2017. “¿Cómo es posible que Facebook, que se precia de ser capaz de procesar miles de millones de datos para transformarlos instantáneamente en conexiones personales para sus usuarios, no haya hecho de algún modo la conexión de que avisos electorales pagados en rublos venían de Rusia?”. Los gigantes en silencio. “¡Eso son dos datos! Anuncios políticos americanos y dinero ruso. ¿Cómo es que ustedes no pudieron conectar esos dos puntos?”. Los gigantes dan explicaciones.

Ninguna de las tres empresas envió a su líder a las audiencias en Washington, lo cual da una primera medida de este pulso político entre internet y Estado. Mark Zuckerberg, que se toma fotos con presidentes alrededor del mundo e insinúa su carrera política, se quedó en California. Lo mismo hicieron Jack Dorsey, de Twitter, y Sundar Pichai, de Google. Ninguno de ellos se iba a poner en el paredón. Pero, al final de cuentas, en el banquillo también estaban ellos y lo que representan. Más allá del show político y de lo rentable que resulta criticar a los gigantes de internet por estos días, el ambiente del debate en el Congreso indica que el discurso idealista de Silicon Valley comienza a agotarse.

El punto que planteaba el senador Franken –con una acidez que por momentos hace que uno sienta lástima por el abogado de Facebook– es la punta del iceberg. Según las propias cifras de la red social, unos 3000 anuncios falsos, por un valor total de 100.000 dólares, se vendieron en la plataforma y fueron vistos por unos 10 millones de usuarios. Algunos de esos anuncios se pagaron en rublos, la moneda rusa. Y aunque la red social asegura que la mayoría se vio después de la elección, el solo hecho de que agentes rusos pudieran hacer campaña política en Estados Unidos tiene escandalizado al Congreso. Con un elemento adicional: esta propaganda se dirigió a nichos específicos de Facebook a través de su sofisticada herramienta de anuncios, que permite personalizar la publicidad, dirigirla a tendencias, gustos y consumos particulares. Los dark ads o “anuncios oscuros” –como se les conoce debido a la imposibilidad de saber quiénes los ven– permitieron reafirmar convicciones políticas, atizar diferencias y, en general, polarizar al electorado. Un hombre blanco de un estado republicano veía un anuncio contra la inmigración o en defensa del uso de armas; un afroamericano veía un anuncio que recordaba la persecución racial del Ku Klux Klan; un católico veía a Hillary encarnando al diablo en una pelea contra Jesús.

Los anuncios no eran elaborados, y en eso radica su fortaleza. En el contexto de la cultura digital, el contenido se consume a manera de memes, pastiches y remezclas, y la publicidad debe verse lo más natural posible. Lo natural es espontáneo y lo espontáneo, real. Es acá donde entra el verdadero problema: la desinformación durante la campaña no provenía únicamente de anuncios pagos, lo cual uno creería que tendría que poder resolver Facebook de alguna forma; el elefante de las fake news se movió como contenido orgánico, es decir, el que comparten los usuarios cotidianamente. Según la empresa, 120 cuentas con nexos rusos crearon 80.000 actualizaciones de “noticias falsas”. Desinformación en escala masiva y opiniones radicales que vieron 29 millones de norteamericanos, pero que vía likes y compartidos pudo llegar a 126 millones. Eso es la mitad del censo electoral de Estados Unidos.

Los mensajes falsos se retroalimentan de las narrativas más agresivas del debate público que los políticos explotan a conveniencia y los medios de comunicación reproducen como un fetiche. El nombre de esa tormenta perfecta es Donald Trump, quien con su llegada a la presidencia coronó un proyecto colectivo de entretenimiento, a pesar de la oposición tardía de muchos de sus creadores. Las fake news, en consecuencia, no son un fenómeno aislado o un efecto indeseado de una tecnología. “Hoy, cuando hablamos de la relación de la gente con internet, tendemos a adoptar el lenguaje acrítico de la ciencia computacional. Las fake news se describían como un ‘virus’ entre usuarios ‘expuestos’ a desinformación en línea”, afirma la socióloga estadounidense Katherine Cross. La sociedad no se infectó de falsedad. La produjo.

Esa idea aséptica del problema alimenta también la indignación de los políticos y de gran parte de la prensa, que reclaman a la par una solución automática. Ese determinismo tecnológico –el mantra de que la tecnología nos salvará– es precisamente lo que se le reprocha a Silicon Valley, que en últimas está siendo víctima de su propia narrativa. Es común encontrar en estas empresas discursos grandilocuentes de cómo un servicio o una aplicación resolverá cualquier problema de la humanidad. El fin del hambre al alcance de un clic. El crítico de tecnología Evgeny Morozov lo llama “solucionismo”: el discurso de enmarcar complejos problemas sociales como acertijos que la tecnología puede y debe resolver.

Esta vez, así no lo digan a viva voz, las empresas de internet saben que no hay un aplicación que arregle este enredo. Y si la hubiera, sería una máquina de monitoreo y control que rompería la economía de escala que hoy monetizan tan exitosamente. Además, sería un instrumento de censura permanente. Desear esa solución no solo es irreal sino inconveniente. Cuando hablamos de contenido orgánico hablamos de texto y de mensajes. De palabras y expresiones. Se trata por definición de un área subjetiva que un algoritmo no puede resolver sin cometer errores sistemáticos de interpretación y ponderación. Si bien en algunos casos es posible determinar que una noticia es falsa –“última hora: murió el papa”–, en la gran mayoría de ellos nos enfrentamos a contenidos que requieren un análisis más detallado. El de un ojo humano que no decida binariamente y permita, e incluso prefiera, el error.

La apuesta de Facebook frente a las fake news combina entonces la detección automática con una respuesta humana. Esa respuesta no es otra cosa que equipos de moderación internos y grupos externos que ayuden a evaluar material. Entre otros proyectos, Facebook está haciendo alianzas con organizaciones de la sociedad civil para que revisen contenido y dictaminen su grado de confiabilidad. El resultado se traduce en etiquetas rojas que aparecen al lado de la información cuestionada, como si se tratara de comida chatarra, y advierten sobre los riesgos de consumirla. “Esta información ha sido cuestionada por un verificador”, dice una de las advertencias.

Las limitaciones de esta estrategia son evidentes: por un lado, es imposible escalar este proceso para diseñarles dietas informativas a los más de 2000 millones de usuarios que tiene esa red social. Por el otro, tener un impacto oportuno que evite la desinformación en momentos críticos –los días antes de una elección, por ejemplo– será más la excepción que la regla. Mientras inventar y propagar rumores es fácil y rápido, contrastar fuentes y verificar información es complejo y toma tiempo. Inevitablemente el remedio para la enfermedad llegará tarde.

En mayo de 2017, The Guardian filtró el dossier más detallado que se conoce hasta ahora sobre el proceso interno de moderación de contenidos en Facebook. Acostumbradas a llevar sus procesos de manera poco transparente, las redes sociales se están viendo presionadas a explicar quién decide y cómo. Si es un algoritmo, cuáles son sus ingredientes; si es un humano, qué elementos tiene en cuenta para decidir. El dossier publicado no trae la fórmula de la Coca-Cola de Facebook, pero sí muestra su abordaje del problema. Enfocándolo como un asunto de seguridad antes que de calidad o participación, la empresa se propone combatir las “operaciones informativas”, que define como “las acciones desarrolladas por actores organizados para distorsionar el sentimiento político nacional o extranjero”. Hacen parte de esas “operaciones informativas” las noticias falsas, la desinformación y las cuentas falsas.

Al referirse a actores organizados, la empresa reconoce la magnitud del problema: del otro lado de la balanza también hay algoritmos y humanos. Los grupos que promueven las “noticias falsas” aprenden rápidamente a navegar los servicios y explotar las herramientas de interacción a su favor. Por medio de ejércitos de cuentas automáticas (bots) y cuentas falsas cuidadosamente creadas y administradas para parecer normales, estos grupos diseñan acciones concertadas para “viralizar” historias, generar o hundir tendencias y atacar usuarios. Nada de esto es nuevo. Tal vez la novedad de la infiltración rusa fue encontrarse con que los perfiles falsos abundan también en Facebook. Twitter fue siempre considerado el ecosistema de las cuentas falsas, principalmente porque no tiene una política de nombres reales como sí la tiene Facebook (es decir, permite crear perfiles anónimos o automatizados).

Con cerca del 16% de los usuarios de Facebook, la red del pájaro ocupa un rol protagónico pero secundario en esta polémica. Según explicó Twitter en las audiencias en el Congreso, más de 2700 cuentas asociadas con agentes rusos movieron 1,4 millones de tuits entre septiembre y noviembre de 2016. Tampoco parece algo nuevo. Twitter siempre ha enfrentado cuestionamientos por la cantidad de cuentas falsas y bots en su plataforma. La compañía asegura que estas no representan más del 5% de sus usuarios, pero sus críticos aseguran que esa cifra está muy por debajo de la realidad. En cualquier caso, la respuesta de la empresa se centra en ese punto: detectar y remover las cuentas maliciosas –automatizadas o no– de la plataforma.

La limitación es similar a la de Facebook. De manera creciente, las acciones concertadas en Twitter las ejecutan cuentas manejadas por humanos, auténticos call centers que tienen el comportamiento orgánico de un activista o un periodista. Twitter podría pescar con dinamita y suspender todas las cuentas sospechosas, pero terminaría afectando por igual cuentas maliciosas y legítimas.

Si usted llegó a este punto del artículo se estará preguntando si hay alguna solución a la vista. La verdad es que acá ni siquiera está planteado todo el problema. Google no tiene una red social relevante –fracasó con Google Buzz, Google Wave y Google Plus– y enfrenta cuestionamientos por los videos falsos y radicales en YouTube. Instagram, la aplicación estrella de Facebook que hace rato superó en usuarios a Twitter, tampoco está en esta contabilidad. Y por ahora el Congreso estadounidense no le presta demasiada atención a WhatsApp, la aplicación independiente de mensajería de Facebook que suma 1200 millones de usuarios en el mundo y mueve contenido que nadie puede monitorear ni medir. Como el borracho que busca las llaves donde hay luz y no donde se le perdieron, los legisladores intentan enfocarse en los problemas que entienden y no necesariamente en los más graves.

Sin duda la combinación de algoritmos y esfuerzos humanos es parte de la solución, pero no la bala mágica. Como muchos de los retos de la era digital, enfrentar la desinformación requerirá de varias acciones, de fórmulas creativas y de muchos actores. Delegarles la responsabilidad a las empresas de internet es endosarles más poder del que ya tienen. En particular, la sociedad civil tiene que propender por la formación de usuarios que autorregulen su comportamiento en redes sociales, que respondan a las noticias falsas con la misma agilidad que las reciben y que sean más críticos frente a la información que consumen y comparten.

No obstante, tener la expectativa de que haya consumidores críticos en el entorno digital actual es tanto como tener la esperanza de que un ludópata se siente a leer un libro dentro de un casino. El negocio de las redes sociales se mide con clics, likes y retuits, y trafica con el tiempo que la gente pasa frente a una pantalla. Esta economía de la atención, que gira alrededor de la forma y no del fondo, incentiva la dispersión y la desinformación. Si la idea es que comamos más verduras y menos dulces, necesitamos que nos ofrezcan un menú distinto.

Nota: para la fecha en que se escribió este artículo no se habían conocido las denuncias de acoso sexual contra el senador demócrata Al Franken.

*Abogado y periodista. Creador de La Mesa de Centro, de La Silla Vacía. Consultor externo de una de las compañías mencionadas en este artículo.

Noticias Destacadas