¿Qué pasa cuando los datos son inexactos, desactualizados o incompletos?
En otras palabras, ¿qué ocurre cuando el big data se convierte en bad data?

¡Comparte tu historia!

El #BadDataChallenge de Eticas quiere recopilar historias e informes personales sobre las consecuencias sociales, éticas o económicas de los datos malos y mal utilizados.
¡Envía tu experiencia de Bad Data y consigue tu recompensa!

Datos y Algoritmos

Gracias a la inteligencia artificial, los algoritmos pueden ser entrenados por los datos y aprender de ellos. Pero lo que hace un algoritmo depende en gran medida de la calidad de los datos. Los datos pueden estar corruptos, desactualizados, inútiles o ilegales. De esta forma, los datos incorrectos juegan un papel importante en todo tipo de procesos y resultados de toma de decisiones.

#BadDataChallenge

Desde la banca hasta la salud, los servicios sociales o la educación, los datos incorrectos pueden tener un impacto importante en nuestros derechos más fundamentales. En la parte inferior de esta página, encontrarás una lista de lectura llena de ejemplos concretos de cómo los datos incorrectos ya están afectando a la sociedad.

Casos destacados de Bad Data

Coca-Cola nueva (datos incompletos)

Frente a la competencia de la Pepsi Cola, de sabor más dulce, a mediados de la década de 1980, Coca-Cola probó una nueva fórmula en 200.000 sujetos.

Cortes a la atención médica basados en evaluación algorítmica (corrupto)

Al igual que en el caso de los pagos por discapacidad en el Reino Unido, en los Estados Unidos ha habido varios casos en los que se realizaron reajustes radicales en la atención domiciliaria recibida por personas con una amplia gama de enfermedades y discapacidades, después de que se introdujo la evaluación algorítmica.

Pagos por discapacidad en el Reino Unido (datos corruptos/sesgados)

A partir de 2016, el número de apelaciones contra las decisiones tomadas por el Departamento de Trabajo y Pensiones sobre la base de las evaluaciones realizadas por los contratistas privados con fines de lucro que trabajan en su nombre comenzó a aumentar drásticamente.

Facebook y Cambridge Analytica (ilegal/filtrado)

Cambridge Analytica, una empresa privada, pudo recopilar 50 millones de perfiles de Facebook y utilizarlos para crear un potente programa de software para predecir e influenciar en las elecciones electorales.

Datos personales incompletos o inexactos (corruptos, desactualizados, inútiles)

Deloitte Analytics llevó a cabo una encuesta en la que se comprobó la precisión de los datos comerciales utilizados para marketing, investigación y gestión de productos.

El CDC utilizó datos incorrectos para juzgar la seguridad del agua en el Distrito de Columbia (incompleto)

En el año 2000, comenzó un problema con el agua potable de Washington D.C. cuando los funcionarios cambiaron el desinfectante que usaban para purificar el agua. Se suponía que el interruptor haría que el agua fuera más limpia. Pero el cambio también aumentó la corrosión de las tuberías de plomo de la ciudad, aumentando la cantidad de plomo en el agua.

Vigilancia predictiva (sesgado, incompleto)

La policía utiliza cada vez más software predictivo. Esto es particularmente desafiante porque en realidad es bastante difícil identificar sesgos en los modelos de predicción de la justicia penal. Esto se debe en parte a que los datos policiales no se recopilan de manera uniforme, y en parte a que los datos que la policía rastrea reflejan sesgos institucionales existentes desde hace mucho tiempo a lo largo de las líneas de ingresos, raza y género.

Flu Trend de Google
(incompatible)

Lanzado en el 2008 con la esperanza de utilizar información sobre las búsquedas en línea de las personas para detectar brotes de enfermedades, Flu Trend de Google monitorearía las búsquedas de los usuarios e identificaría lugares donde muchas personas estaban investigando varios síntomas de la gripe. En esos lugares, el programa alertaría a las autoridades de salud pública que más personas estaban a punto de contagiarse de gripe.

¡Bad Data en Visualizar 2018!

Nuestro desafío fue seleccionado como uno de los 6 proyectos de VISUALIZAR 18: Personal Data un taller internacional que desarrolla proyectos de visualización de datos.

Fue creado en el 2007 por José Luis de Vicente e investiga las implicaciones sociales, culturales y artísticas de la cultura de datos, y propone metodologías para hacerlos más comprensibles y abrir vías de participación y crítica.

Esta edición de Visualizar tuvo lugar del viernes 21 de septiembre al viernes 5 de octubre del 2018 en Madrid, en MediaLab Prado, un laboratorio ciudadano que sirve de lugar de encuentro para la producción de proyectos culturales abiertos.

Fruto de esta residencia, y gracias a un trabajo colaborativo con voluntarios y mentores de Visualizar, realizamos este trabajo de visualización para crear conciencia y difundir el conocimiento sobre cómo los malos datos pueden afectar nuestras vidas y nuestras sociedades, una página web dedicada a Bad Data y su enfermedad: The Bad Data Clinic.