Home

Internet

Artículo

Ilustración: Nicolás Gutiérrez Pinedo.

TENDENCIAS SESGADAS EN TWITTER

La victoria de los 'bots': el problema no tan pequeño de la automatización de contenido en redes

A propósito del episodio de la bodeguita uribista, un experto cuenta cómo funcionan las estrategias de desinformación y manipulación en redes sociales.

Camilo Fajardo*
25 de febrero de 2020

Este artículo forma parte de la edición 171 de ARCADIA. Haga clic aquí para leer todo el contenido de la revista.

Cuando se manipula una tendencia en Twitter se suelen hacer análisis y evaluaciones que funcionan, al final del día, como una denuncia. Lo primero que se evalúa es la ruta de la propagación de los rumores o las afirmaciones promovidas. Se sigue con la intención o la automatización de los interlocutores involucrados, sus dinámicas de grupo y las características técnicas de toda la operación. En algunos casos, hay espacio para especular sobre la finalidad del engaño y su cercanía a uno o más extremos en los que se divide cualquier sociedad polarizada. De cualquier forma, lo que siempre hay es un reclamo a la confianza depositada en el canal. Es decir, en Twitter.

La idea que sustenta este formato de análisis y juicio parece ser que las tendencias manipuladas son episodios no regularizados de conversación; o dicho de otra manera, cursos excepcionales y no corregidos que tomaron el intercambio de posiciones en un canal de microblogging (como Twitter).

Pareciéramos aceptar al unísono que si hemos caído en eventos de desinformación por ese tipo de prácticas fue por negligentes y poco rigurosos a la hora de escoger, alimentar y mantener el auditorio en el que terminamos participando. Eso puede ser verdad. Sin embargo, los eventos de desinformación a partir de tendencias sesgadas y desviadas se han hecho frecuentes y han pasado de episodios de matoneo a espacios abrumadores, que le dejan poco a la razón y en los que incluso la celebración del pánico encuentra un lugar.

Más allá de poner a prueba nuestra exigencia para que se juzgue la información, lo que la manipulación en Twitter está retando es nuestra misma capacidad de hacerlo.

Seeding y bots

Una tendencia manipulada es, por principio, algo impostado. Esto hace que su característica más visible, aunque no exclusiva ni suficiente, sea que los mensajes que la posicionan sean reiterativos. La alternancia y espontaneidad de los tuits nunca es un atributo visible en estos casos.

Se trata de una característica que deriva de la lógica del algoritmo, que jerarquiza lo que es tendencia y lo que no. Aunque dicho algoritmo nunca ha sido explicado del todo, desde 2015 sabemos que no opera en función de una cantidad de menciones de un término clave: su enfoque está en si hay una progresión continua en su aumento (ramp up), lo abrupta que sea la variación (mean shift) y el sostenimiento en el tiempo (pulse).

Las agencias de publicidad y relaciones públicas conocen esta realidad, y es por eso que, jugando a veces en el borde de lo admisible, han desarrollado prácticas de seeding o herramientas para detonar conversaciones. En su investigación “El mundo secreto de los bots y los trolls”, Pablo Fernández, de chequeado.com, las define como una siembra, es decir, una acción dirigida a “plantar” el contenido del cliente en la conversación orgánica que sucede en las redes.

Para esto se deben coordinar usuarios regulares, líderes de opinión, celebridades, marcas y hasta medios de comunicación. Todos deben actuar como líderes o replicadores, de manera que su interacción cree una red de afinidad en la que caigan simpatizantes y en la que varios términos clave puedan insertarse entre recomendaciones y opiniones. Con suerte, interacciones y muchos tuits habrá una conversación que el algoritmo de Twitter pontificará.

Pero las agendas políticas y debates públicos exigen mayor rapidez y usualmente carecen de escrúpulos. El objetivo es conseguir técnicamente la tendencia para imponer la conversación en la plataforma e impactar con ello a la opinión pública. Para lograrlo se descarta la autenticidad que pueden tener las estrategias de siembra y se incluye o trabaja únicamente con un tipo de actores: los bots, cuentas automatizadas que, en su versión más económica y usada, comparten información que extraen o concatenan de una base de datos. Esto es posible por las reglas y especificaciones de código que ofrece Twitter para que los desarrolladores puedan, precisamente, automatizar la administración de cuentas y su contenido.

¿Qué hacer frente a esta amenaza? Repasemos las maniobras y contramaniobras más usadas y predecibles.

Cazar lo automatizable

Como el trabajo de un bot puede discriminarse a partir de la uniformidad de sus publicaciones, cabe hacerse la pregunta de si basta o no denunciar cada caso para que Twitter pase a dar de baja su operación. Y aunque es posible, en la práctica es un recurso poco eficiente, ya que por cada bot denunciado pueden crearse otros mil de un solo tirón. Este es, en efecto, el número de cuentas que ofrece un servicio como buyaccs.com, por costos que van hasta los trescientos dólares.

En ese sentido, vale la pena recordar que Andrés Sepúlveda, el hacker colombiano condenado por espionaje y delitos informáticos, le dijo a Bloomberg que para su trabajo en las presidenciales mexicanas de 2012 llegó a disponer de treinta mil cuentas automatizadas.

Existen las granjas de bots, y estas hacen que los mecanismos de denuncia sean no solo poco efectivos, sino también tardíos: después de que el bloque de bots esté activado y la tendencia esté sembrada, denunciar es solo un guiño; un trámite ineficiente.

Discriminar lo orgánico y lo simulado

Cuando se analizan tendencias, se usan mapas de red o diagramas nodo-enlace, que son modelos que retratan las conversaciones como constelaciones. Las orgánicas se muestran como entramados extensos de nodos. Estos representan los usuarios más mencionados o los términos más usados. Sus interconexiones tienen lugar porque la conversación se da desde distintos ángulos de aproximación, enfoques o temas asociados. Entre más ángulos, enfoques o temas haya, se mencionarán más usuarios, se repetirán más términos clave, y todo esto se traducirá en nodos más grandes, mayores líneas entre estos y, en general, más interconexión.

En esas mismas tendencias así representadas, las conversaciones que generan los bots se muestran como aisladas y, a veces, cerradas. Se separan de las orgánicas, porque sus interlocutores, además de lanzar y recibir mensajes reiterativos, replican o republican a los mismos usuarios (otros bots o líderes que están en la misma esquina de quien pagó la operación). Puede que terminen dibujándose como entramados densos de nodos e interconexiones, pero nunca como una conversación realmente insertada o articulada con una conversación orgánica. Así las cosas, en las tendencias manipuladas actualmente hay separaciones o grietas que discriminan usuarios con intención y voluntad de aquellos que no las tienen.

Se puede pensar que esta arquitectura podría ser usada para desmantelar una granja entera. Para eso, bastaría usar las mismas herramientas que generan los gráficos nodo-enlace, individualizar cuentas y remitir las automatizadas a Twitter.

El primer problema, sin embargo, es que las granjas de bots están evolucionando y han empezado a integrar actores, no solo que sigan reglas, sino que “autoaprendan”. Suena especulativo, pero es tan real como la industria de los chatbox, que está cambiando el negocio del servicio al cliente. En tal caso, cada bot estaría diseñado para alimentar sus tuits de una base de datos de respuestas reales u orgánicas, y calificar cuáles son más usadas o más naturales. Sus “conversaciones” tenderán cada vez más a dibujar nodos abiertos y nutridos. Es decir, a parecer reales.

Está también la opción de rodear el trabajo de los bots básicos que funcionan por reglas para que su trabajo –esto es, la “conversación” en tendencias– luzca más real. Para esto se usan rumores o alertas que tocan las emociones básicas (el miedo funciona bien), tuits orgánicos que agregan verosimilitud al rumor asociándolo a testimonios o situaciones excepcionales (pero posibles) y bots que repiten, a un volumen discreto, lo esencial de aquellos mensajes orgánicos.

Las audiencias conducidas de esa manera a estados de alerta generan conversaciones, de nuevo, con nodos abiertos y nutridos. Andrés Sepúlveda contó que había hackeado así a la opinión pública mexicana cuando corrió el rumor de que, mientras más subiera López Obrador en las encuestas, más caería el peso. Esta siembra de pánico tuvo lugar hace ocho años, por lo que mucho habrá evolucionado el mecanismo desde entonces.

Atacar la natalidad de lo automatizado

Todo lo anterior llevaría a una nueva iniciativa, esta vez dirigida a que Twitter restrinja la automatización de contenidos. En ese caso, como lo señala la plataforma, el costo sería social. La automatización está pensada para redes de información pública y servicios ciudadanos: información en tiempo real sobre la calidad del aire o alertas de sismología, por ejemplo. Incluso hay servicios que crean y diversifican el conocimiento colectivo como @NYT_first_said o @NYT_said_where. La primera cuenta comparte los términos y conceptos que acuñan los periodistas de The New York Times, y la segunda responde enlazando al contenido en que estos nuevos conceptos tienen lugar y encuentran su contexto. Los usos de la automatización pueden llegar a ser meritorios y, como parece sugerir Twitter en sus reglas de automatización, la idea es que los desarrolladores se asuman como responsables, en última instancia, de las acciones generadas por las cuentas que crean.

Pelearnos con el anonimato

Queda por evaluar nuestra capacidad de llamar a juicio a los desarrolladores que se prestan para todo este juego. Y lo primero que tenemos que admitir es que la idea de llegar a ellos en flagrancia es cándida e inverosímil. Cualquier siembra, así como la instalación de la granja, puede hacerse con una red vpn, que hará dos cosas: cifrar la actividad (generando una red segura) y ubicar virtualmente al desarrollador responsable en otro país. Este, además, tiene la opción de usar un navegador Tor, de modo que la información se empaquete por capas y corra cifrada por un camino aleatorio de nodos que pueden leer solo una capa con su propia clave. En el caso remoto de que este camino se interceptara, solo quedaría visible una capa. Avanzar para llegar al mensaje final sería más que dispendioso.

En la medida en que la manipulación de tendencias genera procesos de polarización o pánico, podríamos pensar que vale la pena entonces cuestionar el anonimato. En ese caso, estaríamos cuestionando la llamada neutralidad de la red y el costo sería, de nuevo, social. Si asumiéramos que debe vigilarse y tratar la información que circula en la red, estaríamos pisando una pendiente resbaladiza que empieza con la discriminación de quienes generan bots, sigue con los dueños de algunas ideas y con quienes desarrollan una iniciativa de negocio disruptiva, hasta caer en un modelo intervencionista y retardatario.

Salvar y repensar la información

Los esfuerzos dirigidos a manipular una tendencia en Twitter son forzosos de desmantelar en su faceta técnica. Esta realidad no tiende a cambiar ni hay mucho qué hacer. Entonces, ¿sobre qué debemos empezar a conversar?

Está bien mantenernos en el examen del uso del canal: la posibilidad del engaño, sus dinámicas o las intenciones de quienes eligen manipular la opinión pública de esta forma. Pero necesitamos revisar crítica y activamente, al menos, dos aristas asociadas a la realidad latente de la manipulación. Lo primero, que se vio al evaluar el impacto de las redes en las protestas de noviembre de 2019 en Colombia, como lo destacó Carolina Botero, de la Fundación Karisma, son los mecanismos y criterios con que las redacciones se nutren del tiempo real que aportan las redes, y con ellos llegan, a veces como su única alternativa, a las comunidades apartadas o desconectadas (es el caso de la radio, por ejemplo). La manipulación afecta principalmente a quienes están excluidos de la hiperconectividad y depositan su criterio de consumo de información en los pocos medios a los que tienen acceso.

En segundo lugar está la necesidad de revisar qué tanto la simulación de conversaciones orgánicas amenaza nuestra capacidad de atribuir las etiquetas de validez, objetividad e información. En parte, nos estamos topando con un espacio en que se diluye el modelo válido de comunicación o se pervierte la retórica de la verdad. ¿Y acaso es eso algo menor? Siempre vimos fábulas y narraciones distópicas en las que lo técnico coloniza o le quita un pedazo a lo humano, haciendo que este se confronte con su creación. Y eso, ahora, viene siendo verdad.

*Fajardo es filósofo. Fue director digital en VICE Colombia y desde hace diez años trabaja en estrategias de contenidos digitales.