Amazon abandonó la herramienta de IA para contratación de personal con sesgo de género

Amazon ha abandonado recientemente una herramienta de IA de contratación de personal que se decantaba de forma parcial hacia los hombres para quienes buscaban trabajos técnicos (Snyder, 2018). Desde 2014, un equipo de Amazon había estado desarrollando un sistema automatizado que revisaba los currículums de los solicitantes de empleo. El sistema de Amazon aprendió a degradar currículums referidos a mujeres y a dar puntuaciones más bajas a las mujeres graduadas de varias universidades. Decidió que palabras como “llevado a cabo”, “ejecutado” y “registrado”, que aparentemente se usan con más frecuencia en los currículums de ingenieros varones, sugirieran que un candidato debería tener una clasificación más alta (Ibid). Los fallos del sistema por sesgos de género se originan en el conjunto de datos de entrenamiento sesgados que se le dio para aprender: la fuerza laboral de Amazon está sin duda dominada por hombres y, por lo tanto, el algoritmo se alimenta con atributos característicamente masculinos.

El equipo intentó eliminar el sesgo de género del sistema, pero finalmente decidió abandonar el programa por completo en 2017 (Ibid.).