La censura arbitraria de Facebook impone altos costos a los moderadores de contenido

Si bien Facebook utiliza algoritmos para eliminar automáticamente contenido inapropiado, también emplea a más de 15,000 revisores de contenido. Estas personas se dedican a filtrar los excesos de los usuarios de Facebook (alrededor de la mitad de la población mundial) (Sánchez y Sarabia, 2019).

Los periodistas Sánchez y Sarabia del periódico español El Diario desenmascaran esta realidad a través del testimonio de algunos de estos revisores, señalando la arbitrariedad de las reglas para decidir qué se publica o qué no. Argumentan que “es imposible no cometer errores porque el sistema es muy contradictorio” (ibid).

Los equipos de trabajo de Facebook están divididos por el tipo de contenido y por idioma. Cada moderador mira una pantalla que le muestra las publicaciones de Facebook que han acumulado ‘quejas’ sustanciales de los usuarios por ser inapropiadas. Cada vez que un número relevante de personas denuncia (‘reporta’, en el idioma de Facebook) un contenido, termina llegando a una de esas pantallas. Hay dos opciones: ‘Eliminar’ para eliminar el contenido o ‘Ignorar’ para dejarlo publicado (ibid).

Se trata de casos más o menos sencillos durante el entrenamiento, pero la moderación en la práctica se vuelve rápidamente bastante compleja. En ausencia de un determinado tiempo o de una calificación, Facebook impone reglas internas muy estrictas a sus trabajadores para cada posible caso, de un modo tan preciso que las reglas se vuelven arbitrarias.

Según una fuente interna, si una persona hace comentarios para ensalzar a Hitler, se borra. Sin embargo, un comentario similar hecho por un español que elogia a Franco se dejaría publicado. Facebook permite el fascismo: “Puedes obtener una página llena de fotos de Mussolini o Franco y no pasa nada, está totalmente permitido” (ibid). Esto probablemente se debe al hecho de que la disculpa del franquismo no es un delito en España, sin embargo, la disculpa del nazismo es un delito en Alemania. Si bien las reglas de Facebook no están sujetas a las leyes de ningún país, sí llevan un sello estadounidense innegable. Por ejemplo, con respecto a las organizaciones terroristas, los revisores reciben la lista de grupos terroristas preparada por el gobierno de los Estados Unidos. Si bien Hamás no es considerado un grupo terrorista por la Unión Europea (que tiene su propia lista de organizaciones terroristas), la lista de Estados Unidos es la que importa para Facebook (Sánchez y Sarabia, 2019).

Las fuentes internas hacen hincapié en el doble rasero y en la protección sesgada a grupos específicos por encima de otros, independientemente de lo que diga cualquier norma escrita. Si bien “insultar ciertas creencias o ideologías está permitido de facto, hay algunas creencias o ideologías que están especialmente protegidas en Facebook” (ibid). Por ejemplo, se ha descubierto que el sionismo recibe tratamiento parcial (ibid).

Los entrevistados concluyen que la probabilidad de que Facebook borre contenido es directamente proporcional al poder y la capacidad organizativa del grupo que se siente aludido o atacado. Según reconoce Facebook, los sistemas automáticos de censura son proyectos que requieren largos períodos de tiempo para desarrollarse y perfeccionarse. Pero por ahora, el mecanismo se basa en gran medida en que una publicación reciba un número suficiente de quejas y una posterior revisión humana.

Facebook ha recibido críticas por las condiciones de trabajo impuestas a sus moderadores. Están expuestos todos los días a horas de contenido extremadamente perturbador. Si bien hay psicólogos en plantilla disponibles para los trabajadores del equipo, no es obligatorio reunirse con ellos. Además, un revisor de contenidos siempre está bajo vigilancia: si alguien saca el teléfono de su bolsillo o una botella de agua, podría ser sancionado por los jefes, que tienen un sistema para que los trabajadores se reporten entre sí a cambio de premios por buen comportamiento. Y durante todo el día de trabajo, a los moderadores de contenido solo se les da un descanso de 30 minutos, que deben distribuir durante todo el día para comer, usar el baño o estirar las piernas (Sánchez y Sarabia, 2019). Los empleados de Facebook en Barcelona, Varsovia o Lisboa cumplen los requisitos para ser calificados como telemárketers y suelen ser contratados a través de empresas de “servicio al cliente” como Competence Call Center en Barcelona. Este vacío legal le permite a la empresa distanciarse legalmente de sus condiciones de trabajo, así como rechazar los beneficios que les pudieran corresponder dado que no son trabajadores a tiempo completo (ibid).