IA: ¿A favor o en contra de la comunidad LGBTI+?

En 2011, una app de Android permitía a los padres descubrir la orientación sexual de su hijo a través de un test con veinte preguntas llenas de estereotipos.

Algunas de estas preguntas eran “¿Le gusta vestir bien y presta especial atención a los outfits y las marcas?”, “¿Le gusta el fútbol?”, “¿Es fan de las divas de la canción?” o ¿Tarda mucho en peinarse?”.

Si el hijo en cuestión era clasificado como heterosexual, la app lanzaba el mensaje “No tienes de qué preocuparte, tu hijo no es gay. Aún tienes la oportunidad de ser abuela y disfrutar de toda la alegría que eso conlleva”, pero si la app determinaba que era homosexual, entonces el mensaje cambiaba a “No hay más que pensar, ¡es gay! ¡ACÉPTALO!”.

Más allá de lo simplista y sexista de todo esto, y de la intromisión a la privacidad que supone, ¿qué sucedía si esta persona era bisexual, transgénero, no binaria o de género fluído? No lo sabemos, ya que a las personas con estas orientaciones o identidades no se las estaba teniendo en cuenta (una vez más).

Más tarde, en 2017, la Universidad de Stanford desarrolló una herramienta de IA que afirmaba ser capaz de identificar la orientación sexual de las personas basándose en una única fotografía y que lo hacía con altos niveles de acierto. Sí, estamos diciendo que una máquina podía forzar a alguien a salir del armario.

Michal Kosinski y Yilun Wang, investigadores de Stanford, realizaron un estudio llamado “Las redes neuronales profundas son más precisas que los humanos para detectar la orientación sexual a partir de imágenes faciales”. Para ello, utilizaron redes neuronales profundas con las que extraían información de miles de fotografías. Este sistema de reconocimiento facial distinguió “correctamente” a los hombres heterosexuales de los homosexuales en un 91% de los casos y en un 83% en el caso de las mujeres, mientras que el porcentaje de acierto del ojo humano fue mucho menor: un 61% para los hombres y un 54% para las mujeres.

Los hallazgos de dicho estudio mostraron cómo la frenología puede ser una amenaza para la privacidad y la seguridad de la comunidad LGBTI+ en todo el mundo y cómo esta puede aumentar su riesgo de persecución, especialmente en regímenes autoritarios, como es el caso de Uzbekistán, donde las autoridades sometieron a al menos seis hombres a exámenes anales forzados entre 2017 y 2021 con el fin de procesarlos por mantener relaciones sexuales consentidas con personas del mismo sexo.

De hecho, tal y como recoge Human Dignity Trust, esta criminalización de la diversidad sexual y de género está bastante extendida: 71 países en el mundo consideran un delito las relaciones sexuales privadas y consentidas entre personas del mismo sexo; 43 países criminalizan este tipo de relaciones entre mujeres y cuentan con leyes en su contra; 15 países penalizan la identidad y/o expresión de género de las personas transgénero; y existen 11 países en los que el las relaciones sexuales privadas y consensuadas entre personas del mismo sexo puede castigarse con pena de muerte.

¿Alguna vez te habías planteado las consecuencias que este tipo de sistemas de IA pueden tener para estos colectivos? Sí, hay personas que son asesinadas por su orientación sexual o su identidad de género. Esta identificación y criminalización también podría llevarse a cabo si las autoridades de estos países decidieran comprar datos a las apps que las personas de la comunidad LGBTI+ puede utilizar.

Y, en esos lugares en los que no ser hetero no supone un crimen, ¿qué sucede si las empresas homofóbicas deciden empezar a descartar candidaturas de empleo a través de estos sistemas? Este es tan solo uno de los ejemplos de cómo el sector privado podría utilizar este tipo de herramientas.

Pero, ¿y si usáramos el gran potencial de la tecnología para ayudar a los colectivos vulnerables en lugar de para perpetuar su discriminación y convertirla en un arma potencial que puede usarse su contra?

Creemos profundamente que hay una gran necesidad de tener una mente ética y moral cuando las ideas de crear este tipo de sistemas aparecen. “¿Es útil?”, “¿Puede discriminar a algún colectivo?”, “¿Será una ayuda o una amenaza para los más vulnerables?” o “¿Puede ser utilizado en su contra?” son algunas de las preguntas que quienes los desarrollan deberían hacerse a la hora de proponer crearlos e implementarlos, de modo que el impacto negativo que pueden tener sus productos se minimice.