El Departamento de Policía de Boston despliega la vigilancia de las redes sociales

El Departamento de Policía de Boston ha puesto en marcha una herramienta de vigilancia algorítmica desarrollada por Geofeedia (una plataforma de inteligencia de medios sociales) para detectar posibles amenazas en las redes sociales. El programa informático permite a los organismos de aplicación de la ley rastrear las publicaciones de las redes sociales y asociarlas a lugares geográficos, algo que, según se informa, ha sido utilizado para atacar a activistas políticos de todo tipo tanto por los departamentos de policía como por empresas privadas (Fang, 2016). Por ejemplo, supuestamente se desplegó contra los manifestantes de Baltimore como parte de la fase piloto del proyecto (Brandom, 2016). Esto provocó una reacción de las principales empresas de redes sociales que negaron a Geofeedia el acceso a sus datos, según un informe de la Unión Americana de Libertades Civiles (Cagle, 2016).

Además, en 2016 la Unión Americana de Libertades Civiles de Massachusetts (ACLUM) descubrió que entre 2014 y 2016 el BPD (Boston Police Department) había estado usando un conjunto de palabras clave para identificar la mala conducta y los comportamientos discriminatorios en línea sin notificar al Consejo Local (Asghar, 2018; Busquets, 2016). Esto se mostró en un informe que analizó una serie de documentos oficiales (ACLU, 2016). Algunos de los términos utilizados fueron “#MuslimLivesMatter” o “ummah” (que significa comunidad en árabe). Esta herramienta ha sido criticada por sus resultados sesgados, que afectan particularmente a la comunidad musulmana (Durkin, 2018).

Después de la publicación de lo anterior, la ACLU indicó que el BPD estaba encuestando a los ciudadanos en Facebook, Instagram, Twitter y otras redes de medios sociales. El Ayuntamiento de la Ciudad de Boston celebró una audiencia para discutir las preocupaciones planteadas por el sistema, sin embargo nunca aclaró completamente la forma en que el sistema define las amenazas potenciales y aborda el sesgo (Privacy SOS, 2018).

Para clasificar las publicaciones de los medios sociales, Geofeed mide el nivel de “sentimiento” contenido en un “post” de las redes sociales para predecir las manifestaciones públicas de malestar o violencia y su intensidad (Knefel, 2015). Cuando se le preguntó cómo se logró esto, Lee Gutham (jefe de desarrollo de negocios de la compañía) respondió lo siguiente:

“Lo que hace es que toma todas las palabras de la frase, y les atribuye puntos positivos y negativos, y luego la proximidad de las palabras a ciertas palabras” (Ibid).

Evidentemente, el criterio utilizado para clasificar las diferentes palabras en las categorías de ”malo” y ”bueno” no ha sido revelado públicamente. No sólo es perturbadora esta falta de transparencia, sino que la susceptibilidad del algoritmo a la discriminación debería hacer sonar las alarmas. Aunque el programa informático sólo se basa en datos públicos, esos datos suelen reflejar sesgos estructurales de las sociedades, lo que significa que el resultado del algoritmo puede dar lugar a la discriminación de ciertos grupos, como los ciudadanos musulmanes (Ibíd.). Por lo tanto, las ventajas de estos instrumentos de vigilancia parecen inciertas, mientras que sus posibles repercusiones amenazan claramente con amenzar la libertad de expresión, silenciar los movimientos sociales y permitir la elaboración de perfiles raciales.