Impacto social

Uno de los efectos que se ha descubierto que tienen los algoritmos de aprendizaje automático es el llamado sesgo algorítmico o discriminación algorítmica, y los efectos nocivos en la sociedad es lo que conocemos como impacto social. Hay muchas fuentes de sesgo que estadísticamente pueden afectar los resultados de los algoritmos a lo largo de su ciclo de vida, pero su impacto social estará medido por la gravedad o importancia de la discriminación social que ocurra.

Por eso es tan importante tener en cuenta que un algoritmo desarrollado para un servicio o producto concreto con todas las medidas razonables y prudentes en su diseño para que logre correctamente su “función”, y a pesar de su naturaleza matemática aparentemente neutral, puede producir y reproducir sesgos que acaban siendo discriminatorios contra los grupos sociales tradicionalmente excluidos,como los grupos étnicos/religiosos minoritarios o los colectivos y personas que se encuentran al límite de la pobreza.

Discriminación algorítmica

Un algoritmo sesgado es un algoritmo que discrimina sistemáticamente e injustamente a ciertos individuos o grupos de individuos en favor de otros. Un sistema discrimina injustamente si niega una oportunidad o un bien o si asigna un resultado indeseable a un individuo o grupo de individuos por motivos que no son razonables o apropiados.

Friedman, B., & Nissenbaum, H. (1996)

El impacto social de los algoritmos

Después de haber procesado más de un centenar de algoritmos de diferentes tipos y con el objetivo de abordar el sesgo algorítmico de manera rigurosa y sistemática, el equipo de la Fundación Eticas ha definido la siguiente taxonomía de discriminación.

Discriminación racial

La discriminación racial se refiere a la discriminación contra las personas por motivo de su raza,color, ascendencia, condición nacional, étnica o inmigrante. Un ejemplo sesgado del aprendizaje automático sería el de algunos sistemas de predicción de la reincidencia de delitos, que han demostrado ser ineficientes y racialmente sesgados contra determinados grupos sociales.

Discriminación de género

La discriminación basada en el género es una violación muy común de los derechos civiles basada en discriminar según el género de una persona. En el aprendizaje automático, la discriminación de género puede adoptar la forma de algoritmos de búsqueda de empleo que ofrezcan peores oportunidades o puestos de trabajo menos remunerados a las mujeres que a los hombres, basándose únicamente en el género.

Discriminación socioeconómica

La discriminación socioeconómica, también conocida como clasismo, es el prejuicio contra las personas basado en su clase social. Las compañías de seguros que utilizan algoritmos de aprendizaje automático para extraer datos, como el historial de compras, para reconocer patrones de clientes de alto riesgo y les cobraban más a las personas con perfiles socioeconómicos menos favorecidos, podrían ser un ejemplo de ello.

Discriminación religiosa

La discriminación religiosa consiste en tratar a una persona o colectivo de manera diferente y desigual respecto a las otras debido a las creencias religiosas o de culto que tienen. Por ejemplo, las investigaciones han demostrado que algunos algoritmos de aprendizaje automático estaban utilizando palabras relacionadas con la comunidad musulmana para buscar conductas "erróneas" y comportamientos potencialmente riesgosos en las redes sociales.

Reproducción de la desigualdad

La reproducción social es la transmisión de la desigualdad social de una generación a otra a través de las estructuras, creencias y acciones llevadas a cabo a través del tiempo. El uso continuo de algoritmos sesgados que perpetúan las desigualdades puede causar espirales perjudiciales de exclusión.

Impacto en los procesos democráticos

El derecho al acceso a una información de confianza y a la participación política activa son prácticas democráticas que se ven retadas por el uso de algoritmos de aprendizaje automático que fortalecen la polarización de nuestras sociedades, dificultando el acceso a ideas diferentes u opuestas a las nuestras.

Impacto en la privacidad

Las decisiones rápidas y automatizadas sin una participación humana están afectando en muchos casos el derecho de las personas a su propia intimidad. Esto se incentiva por las grandes cantidades de datos que son procesados por sistemas algorítmicos, que posibilitan inferir información altamente sensible y privada de los individuos a través de la base de datos de las redes sociales.

¿Te interesa nuestro trabajo?

Puedes colaborar con el proyecto enviándonos algoritmos que se estén implementando a tu alrededor, o bien que conozcas de otros lugares, y también utilizando la información de este directorio para fomentar cambios y mejoras en tu comunidad.