Redes sociales
Twitter: estudio reveló cómo se pueden reducir los mensajes de odio en la red social | Foto: Getty Images/iStockphoto

REDES SOCIALES

Twitter: estudio reveló cómo se pueden reducir los mensajes de odio en la red social

El estudio concluye que las advertencias personalizadas podrían reducir el discurso de odio en esta red social.

22 de noviembre de 2021

Las advertencias personalizadas que alertan a los usuarios de las consecuencias que tiene publicar mensajes que inciten al odio en Twitter reducen el número de publicaciones de este tipo, según un reciente informe publicado por la Universidad de Cambridge (Reino Unido).

Dirigido por Mustafa Mikdat Yildirim, doctorando del Centro de Medios Sociales y Política de la Universidad de Nueva York y autor de ‘Short of Suspension: How Suspension Warnings Can Reduce Hate Speech on Twitter’, el estudio concluye que las advertencias personalizadas podrían reducir el discurso de odio en esta red social.

Así los investigadores identificaron las cuentas que corrían el riesgo de ser suspendidas por infringir las normas de la red social contra la incitación al odio. Para ello, buscaron a personas que hubieran utilizado, al menos, una palabra que se ajustara a este tipo de delitos y que también siguieran al menos una cuenta suspendida recientemente por el uso de ese lenguaje.

Botón Tweet en el teclado
Las advertencias personalizadas que alertan a los usuarios de las consecuencias que tiene publicar mensajes que inciten al odio en Twitter reducen el número de publicaciones de este tipo, según un reciente informe publicado por la Universidad de Cambridge (Reino Unido). | Foto: Getty Images

Los investigadores crearon diferentes cuentas de prueba para mandar avisos a estos individuos en relación al contenido que publicaban en sus perfiles. En estos mensajes se mencionaba que la incitación al odio ponía a estos usuarios en riesgo de ser suspendidos y que esto ya le había ocurrido a alguien que figuraba entre sus seguidores.

“El usuario ‘@cuenta’ que sigues ha sido suspendido y es posible que esto se deba al lenguaje de odio que ha utilizado”, dice uno de los escritos que aparece en el estudio. “Si sigues usando lenguaje de odio, podrías ser suspendido temporalmente”, apunta otro mensaje.

De acuerdo con el citado medio, el equipo de Yildirim creó cuentas que se identificaban como investigadores profesionales para enviar estas notificaciones con el fin de ser “lo más creíbles y convincentes posible”, dijo el doctor.

Entre algunos de los resultados fruto de esta investigación se apunta a que las advertencias tenían eficacia, al menos, a corto plazo. “Nuestros resultados muestran que un solo tuit de advertencia enviado por una cuenta con no más de 100 seguidores puede disminuir la proporción de tuits con lenguaje de odio hasta en un 10 %”, cita Engadget, según el documento oficial.

Además, este equipo de investigadores ha comprobado cómo los mensajes que estaban redactados con un lenguaje más formal reducían en mayor proporción publicaciones de estas características. Para Yildirim y los coautores del informe, si estas advertencias procedieran de la propia red social o de organizaciones oficiales, se podrían evitar en mayor medida las publicaciones de carácter negativo.

“Lo que hemos visto a partir de este experimento es que lo importante es cómo hacemos saber a estos usuarios que alguna cuenta o entidad está vigilando y monitorizando su comportamiento”, se menciona en el apartado de conclusiones.

Me gusta y comparte las redes sociales. Manos sosteniendo smartphone con iconos de redes sociales. Concepto de marketing.
Twitter presentó su nuevo modo seguro, una funcionalidad de seguridad en pruebas que bloquea de forma automática el contenido abusivo de la plataforma para que el usuario no lo vea, incluyendo lenguaje dañino, comentarios de odio, repetitivos o no deseados. | Foto: Getty Images/iStockphoto

En este también se indica que “el hecho de que el uso de estos discursos de odio sea visto por otras personas podría ser el factor más importante por el que algunos usuarios dejaron de publicar mensajes de este tipo”.

El modo seguro de Twitter

Twitter presentó su nuevo modo seguro, una funcionalidad de seguridad en pruebas que bloquea de forma automática el contenido abusivo de la plataforma para que el usuario no lo vea, incluyendo lenguaje dañino, comentarios de odio, repetitivos o no deseados.

El modo seguro tiene como objetivo “limitar las interacciones abrumadoras y no deseadas” en la plataforma y asegurar conversaciones saludables, como informó Twitter en un comunicado.

Para ello, bloquea temporalmente durante siete días las cuentas que publican contenido abusivo, algo que se detecta de forma automática. Estas cuentas no pueden ver los tuits del usuario, seguirle o enviarle mensajes directos en este tiempo.

Entre los contenidos bloqueados por el modo seguro de Twitter se encuentran lenguaje potencialmente dañino, insultos o comentarios de odio, así como las cuentas que envían respuestas o menciones repetitivas y no deseadas.

La nueva función evalúa la probabilidad de una interacción negativa al considerar tanto el contenido del tuit como la relación entre el autor y el que responde. Las cuentas que el usuario sigue o con las que interactúa con frecuencia no se bloquearán automáticamente.

*Con Europa Press.