Sesgo de género en el reconocimiento de voz de Google

Según una investigación de Rachael Tatman, investigadora lingüista e investigadora graduada de la National Science Foundation de la Universidad de Washington, el software de reconocimiento de voz de Google tiene un sesgo de género (Larson, 2016). Después de evaluar 1.500 palabras de anotaciones en 50 videos diferentes, Tatman encontró “diferencias significativas en la forma en que el software de reconocimiento de voz de Google subtitula automáticamente videos en YouTube” (ibid). Tatman (2016) encontró que, de promedio, para cada hablante mujer se subtitularon correctamente menos de la mitad (47%) de sus palabras. Por el contrario, el hablante masculino promedio, fue subtitulado correctamente el 60% de las veces (ibid.). Además de eso, Tatman descubrió que si se seleccionaban al azar un hombre y una mujer de la muestra de investigación, había casi un 70% de posibilidades de que las transcripciones fueran más precisas para el hombre (Ibid.) En general, el software funcionó mucho más consistentemente con las voces masculinas que con las femeninas.

La investigación de Tatman se hace eco de las conclusiones de otros estudios: los algoritmos generalmente funcionan mejor para la persona que los hizo, que a menudo es un hombre blanco. Por ejemplo, al implementar la tecnología de control de voz en los automóviles, se descubrió que las mujeres conductoras tenían más dificultades para instruir a su automóvil, respecto a sus homólogos masculinos que disfrutaban de una relativa facilidad (ibid). Si queremos que nuestra tecnología sea funcional e inclusiva para todo el mundo, tenemos que ser conscientes de las innumerables formas en que los prejuicios humanos pueden filtrarse en todo lo que hacemos y creamos.