Una comprobación automatizada incorrecta de los antecedentes de los inquilinos deniega el acceso a la vivienda

El aumento de los alquileres en los Estados Unidos, junto con el auge de una economía basada en las bases de datos, ha creado una nueva industria de verificación de los antecedentes de los inquilinos procesada mediante algoritmos. En todo el país, aproximadamente 9 de cada 10 propietarios compran verificaciones de antecedentes baratas y rápidas de empresas de detección como RealPage, CoreLogic, TransUnion y RentGrow, pero sus productos pueden estar plagados de imprecisiones (Kirchner y Goldstein 2020). La consecuencia de ello es la denegación injusta de una vivienda a muchos inquilinos en los Estados Unidos. Cuando los periodistas Laren Kirchner y Matthew Goldstein revisaron cientos de demandas federales de los últimos 10 años contra compañías de cribado de información, descubrieron que esta industria que ofrece resultados baratos y rápidos a menudo identifica erróneamente a los inquilinos como criminales y delincuentes sexuales, negándoles así la posibilidad de asegurarse un lugar donde vivir (ibid).

Debido a algoritmos de detección descuidados y defectuosos, Samantha Johnson, de 31 años de edad, que vive en Oregón y tiene dos infracciones de tráfico en su historial, ha visto como le rechazaban acceder a un alquiler en innumerables ocasiones (ibíd.). En 2018, un propietario recibió una verificación de antecedentes que alegaba que Johson había cometido toda una serie de actos: “Robo y asalto doméstico en Minnesota. Venta de metanfetaminas y huída bajo fianza en Kentucky. Conducir sin seguro en Arkansas. Conducta desordenada. Robo. Mentirle a un oficial de policía. Delitos no especificados. Demasiadas cargos por narcóticos como para contarlos (ibíd.)”. Ninguno de los cargos era de ella, sino que pertenecían a otras Samantha Johnson (y nombres que se parecen mucho a “Samantha Johnson”) de todo el país. La herramienta de detección automatizada agregaba información de una variedad de bases de datos penales y clasificaba erróneamente los cargos bajo una única identidad.

Las comprobaciones de antecedentes automatizadas defectuosas subrayan cómo el procesamiento algorítmico puede ser una solución rentable y escalable para las empresas pero, sin embargo, cuando se equivoca impacta negativamente en personas inocentes con unos elevados costos. Incluso cuando los algoritmos tienen tasas de error del 1% (como la tasa de error notificada de los algoritmos de muchas empresas de cribado como las de este caso), a una escala de millones de personas, eso significa que cientos de miles de personas siguen estando afectadas (ibíd.). Es de vital importancia realizar una rigurosa auditoría interna antes de dar rienda suelta a los algoritmos en recursos críticos como la vivienda.