(Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images)
Según una reciente investigación, Facebook habría protegido a usuarios como famosos o políticos de la aplicación de las normas de la red social. (Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images) - Foto: SOPA Images/LightRocket via Gett

tecnología

Facebook tiene una versión VIP para famosos: ¿cómo funciona?

Facebook ha negado tener un criterio distinto en cuanto a la aplicación de sus normas para todos los usuarios.

La red social Facebook tiene un programa VIP en la que diversas celebridades pueden publicar contenidos habitualmente censurables para otro tipo de usuarios, por lo que una reciente investigación advierte que la compañía liderada por Mark Zuckerberg habría seguido un criterio distinto con los usuarios de perfil alto de su plataforma.

Así lo revelaron los documentos internos a los que ha accedido el medio norteamericano The Wall Street Journal, en los que se señala que el programa conocido como ‘Cross check’ o ‘XCheck’ de Facebook habría protegido a algunos usuarios, como famosos o políticos, de la aplicación de las normas de la red social.

Redes sociales
Redes sociales - Foto: Getty Images/iStockphoto

No obstante, Facebook ha negado tener un criterio distinto en cuanto a la aplicación de sus normas, aunque la investigación resalta que esa protección especial para usuarios de alto rango sería contraría a la función que la compañía estadounidense explicó que tenía el programa de revisión cruzada cuando lo dio a conocer en 2018.

En ese momento, Facebook explicó que el programa consistía en una capa adicional de revisión para las Páginas y los perfiles con la que se buscaba confirmar que se cumplían las reglas de uso de la red social, como recoge Europa Press.

La compañía había reconocido que este programa se aplicaba a usuarios de perfil alto, como famosos, periodistas, medios de comunicación, o políticos. Sin embargo, insistió en que el programa “no protegía el perfil, la página o el contenido de ser eliminado”, sino que era algo con lo que se “aseguraban” de que su decisión era la correcta.

A pesar de las explicaciones de Facebook, la investigación de The Wall Street Journal revela que ese programa se habría utilizado para que usuarios VIP quedaran exentos de la aplicación de las normas, lo que implicaba que pudieran publicar contenidos que para otro tipo de usuario de la plataforma no eran permitidos por violar sus normas.

Entre tanto, el portavoz de Facebook, Andy Stone, ha recogido esta investigación en un hilo en Twitter, donde ha asegurado que “no hay dos sistemas de justicia”, sino que el programa es “un intento de salvaguarda contra errores”.

¿Facebook también se salta la encriptación de WhatsApp?

Facebook también lleva años asegurando que nadie puede leer el contenido de los mensajes de su aplicación de mensajería WhatsApp porque están protegidos por una tecnología de encriptación de extremo a extremo, una afirmación que una investigación ha puesto en duda al revelar que la compañía tiene trabajadores especializados en realizar la revisión de contenidos individuales.

(Photo by Daniel Reinhardt/picture alliance via Getty Images)
(Photo by Daniel Reinhardt/picture alliance via Getty Images) - Foto: dpa/picture alliance via Getty I

La investigación fue liderada por ProPublica a partir del análisis de datos, documentos y docenas de entrevistas con empleados y subcontratados de Facebook, tanto actuales como antiguos.

Según ha compartido la agencia de noticias Europa Press, WhatsApp cuenta con al menos mil trabajadores subcontratados en sus oficinas de Austin, Texas (Estados Unidos), Dublín (Irlanda) y Singapur, que examinan con un software especial millones de contenidos compartidos por los usuarios a través de su servicio de mensajería.

Los trabajadores subcontratados por Facebook utilizan un software especial que les permite analizar los mensajes y otros contenidos compartidos en los chats que otros usuarios han denunciado por violar las políticas de la plataforma. Dichos mensajes también son examinados por un sistema de inteligencia artificial.

Posteriormente, los analistas deben realizar un juicio sobre ese contenido, aunque no pueden eliminar contenido individual, como sí ocurre en las plataformas Facebook e Instagram. Los trabajadores revisan mensajes para identificar y eliminar “a los peores abusadores”, como ha reconocido el director de Comunicación de WhatsApp, Carl Woog, a ProPublica.

Esa afirmación ha sido reiterada por un portavoz de la compañía en declaraciones concedidas a Europa Press. “WhatsApp proporciona una forma para que las personas denuncien ‘spam’ o abuso, lo que incluye compartir los mensajes más recientes en un chat. Esta función es importante para prevenir los peores abusos en Internet”, concluyó.

*Con información de Europa Press