El chatbot xenófobo y racista de Microsoft

En marzo de 2016, Microsoft desarrolló un chatbot algorítmico llamado “Tay”‘ que fue creado para parecer una adolescente. El algoritmo fue diseñado para aprender interactuando con gente real en Twitter y las aplicaciones de mensajería Kik y GroupMe.

El perfil de Twitter de Tay contenía la siguiente advertencia: “Cuanto más hables, más inteligente se vuelve Tay”. Y al principio, el chatbot parecía funcionar: los mensajes de Tay en Twitter realmente coincidían con los de una típica adolescente. Sin embargo, después de menos de un día, Tay empezó a publicar contenidos racistas, sexistas y antisemitas explícitos (Rodríguez, 2016). Un portavoz de Microsoft sólo podía defender el comportamiento diciendo

“El chatbot Tay de la IA es un proyecto de aprendizaje automático, diseñado para el compromiso humano. Es tanto un experimento social y cultural, como técnico. Lamentablemente, en las primeras 24 horas de estar online, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay para hacer que Tay respondiera de manera inapropiada”. (ibíd.)

En efecto, el bot fue creado para dar respuestas personalizadas a los usuarios, reuniendo información sobre cada uno de ellos durante cada interacción individual. Microsoft no anticipó la intención maliciosa de algunos usuarios de Internet. Desconectaron rápidamente a Tay después de 24 horas del experimento. El caso subraya en gran medida la lección de cómo “hablar con seres artificialmente inteligentes es como hablar con niños”. Son temas increíblemente maleables y sensibles y se les puede enseñar a hacer y decir cualquier cosa.