El software de reconocimiento facial de la policía estatal de Michigan acusa injustamente a un hombre de robo

En medio de protestas de Black Lives Matter y llamados a la reforma de la justicia racial en los Estados Unidos, la historia de Robert Williams –un hombre negro arrestado injustamente a causa de un software de reconocimiento facial– subraya cómo las tecnologías actuales corren el riesgo de exacerbar las desigualdades preexistentes. 

  Después de que el software de reconocimiento facial de la Policía Estatal de Michigan coincidiera la cara de Robert Williams con la de una imagen de un video de vigilancia que atrapa a un hombre robando relojes por un valor de $ 3,800 USD, oficiales del Departamento de Policía de Detroit llegaron a la casa del Sr. Williams para arrestarlo (Hill 2020). Mientras el Sr. Williams estaba en la sala de interrogatorios sabiendo que era inocente del crimen, no tenía idea de que su caso sería la primera cuenta conocida en los Estados Unidos de un arresto ilícito basado en un algoritmo de reconocimiento facial (ibid). 

Los algoritmos de reconocimiento facial son cada vez más comunes en la vigilancia a pesar de sus preocupantes altas tasas de falsos positivos para las minorías raciales y las mujeres. En este caso, la policía estatal de Michigan compró el software de una empresa privada, DataWorks, Plus por aproximadamente $ 5.5 millones de dólares. El software utiliza algoritmos (desarrollados por otras empresas de terceros como Rank One Computing en Colorado y NEC en Japón) que mapean el rostro de un sospechoso y luego lo comparan con la base de datos de la Policía del Estado de Michigan de más de 49 millones de fotos. En 2019, un estudio federal demostró que los algoritmos encontrados en el software DataWorks Plus eran de 10 a 100 veces más propensos a identificar incorrectamente caras afroamericanas y asiáticas que caras caucásicas (ibid). El estudio federal también demostró que los algoritmos de reconocimiento facial tenían tasas de falsos positivos desproporcionadamente más altas para las mujeres. Por lo tanto, en efecto, los algoritmos de reconocimiento facial, cuando ayudan a la policía, identifican erróneamente a las mujeres y las minorías como más propensas a haber cometido delitos. 

La familia Williams contactó a abogados defensores pero encontró poca ayuda. A pesar de explicar cuidadosamente la situación a muchos abogados, la mayoría asumió que el software había coincidido exactamente la cara del Sr. Williams con la del ladrón, creyendo que era culpable y pidiendo precios altos para representarlo en la corte. Solo cuando la ACLU de Michigan (Unión Americana de Libertades Civiles por sus siglas en inglés) escuchó el caso, la familia Williams encontró representación legal que creía que el algoritmo podía ser el culpable. Phil Mayor, abogado de la ACLU de Michigan, explicó la postura de la organización ante el New York Times: “Hemos estado activos tratando de hacer sonar las alarmas en torno al reconocimiento facial, tanto como una amenaza a la privacidad cuando funciona y como una amenaza racista para todos cuando no… Sabemos que estas historias están ahí afuera, pero es difícil escucharlas porque las personas generalmente no se dan cuenta de que han sido víctimas de una mala búsqueda de reconocimiento facial (ibid).” 

Si bien el caso del Sr. Williams fue finalmente desestimado en la lectura de cargos, su historia alerta a los ciudadanos y las agencias de aplicación de la ley de todo el mundo sobre los peligros de la tecnología de reconocimiento facial con respecto a la seguridad pública, la justicia y la privacidad. Dentro del contexto estadounidense, esta historia le demuestra a un país, cansado y herido por una historia de injusticia racial, que las tecnologías emergentes, como los algoritmos, pueden reproducir de manera rápida e invisible las mismas desigualdades que lo han plagado durante siglos.