Nos adentramos en el algoritmo de Uber

A medida que proliferan los sistemas de IA, la necesidad de comprender su funcionamiento e impacto sobre los diferentes colectivos, y, especialmente, en los grupos vulnerables, se vuelve cada vez más urgente. Sin embargo, a menudo se muestran como una “caja negra” que carece de transparencia y auditar algoritmos no siempre resulta una tarea fácil o bienvenida. Dado que la misión de la Fundación Eticas es proteger a las personas de los procesos tecnológicos, se nos ocurrió otra forma de abrir la “caja negra”: la ingeniería inversa. A través de ella, medimos el impacto social de los sistemas algorítmicos.

Uber, junto con otras aplicaciones de transporte, ha cambiado la forma en que nos movemos. Los algoritmos que impulsan estas plataformas son capaces de ofrecer estimaciones de tiempo de viaje precisas y un servicio bastante personalizado, pero ¿alguna vez te has preguntado si, tras la personalización de un servicio, puede existir discriminación hacia personas o colectivos concretos?

En Eticas lo hemos hecho. Sin embargo, para probar esta hipótesis necesitamos datos. Muchos datos. Por este motivo, te pedimos que nos ayudes a crear una base de datos de viajes (sin información personal, solo necesitamos ver los rasgos generales). La información que pedimos que nos compartas consiste únicamente en la duración de tu viaje, su precio, el punto de inicio y final e información general que de ninguna manera nos permitiría saber nada más sobre ti. Además de eso, no podremos vincular esta información a nombres o correos electrónicos, por lo que nunca sabremos a quién pertenece.

Queremos ponértelo fácil, así que, si quieres colaborar, entra aquí y ayúdanos a descifrar la caja negra de los algoritmos.