Problemas causados por la mala aplicación del Big Data cuestionan el uso que se está dando a esta tecnología

La entidad especializada en tecnología e impacto social Eticas Foundation ha alertado sobre las consecuencias e impactos que la incorporación de datos erróneos, corruptos e incompletos al Big Data está teniendo en todo el mundo.

Eticas ha analizado estos casos en el que el Big Data se convierte en “Bad Data” a nivel internacional, causando decenas de problemas que afectan a campos tan fundamentales como el policial, la salud o la inmigración. Además, ha recogido ejemplos particulares de personas que han experimentado sus consecuencias. Casos aparentemente tan nimios como tener el mismo nombre que otra persona conllevó terminar en una lista de morosos con todas las implicaciones que esta situación acarrea.

El Big Data es una oportunidad para canalizar la inmensa cantidad de datos que se generan por segundo en todo el mundo, es la única vía para poder aglutinarlos, analizarlos y aprovechar todo su potencial. Pero las herramientas que se emplean han de tener todas las garantías de su correcto funcionamiento ya que las consecuencias pueden ser muy graves.

Al hablar de seguridad y datos parece que la única preocupación se centra en su protección, pero las compañías que desarrollan soluciones de Big Data no son conscientes de que todos sus procesos deben estar validados de la manera correcta para que los resultados obtenidos de su aplicación no den soluciones sesgadas ni corrompidas. Evitar estos escenarios es fundamental y en la actualidad no se está realizando con las mejores garantías como hemos comprobado," dice Gemma Galdon, Presidente de Eticas Foundation.

Casos de “Bad Data” en campos como la seguridad, la salud pública o la inmigración

La incorporación de Bad Data se da en prácticamente todos los campos que construyen el Big Data: los recogidos por Eticas afectan a sectores tan delicados como la salud, la seguridad o la inmigración. Entre ellos se encuentran:

  • Sesgo racial en el software predictivo de la Policía de Oakland (California)que apuntaba a que en los vecindarios negros se cometían el doble de delitos relacionados con drogas cuando su incidencia real es similar en toda la localidad. También incurría en un sesgo con las comunidades de ingresos bajos que, según el software, presentaban tasas desproporcionadamente más elevadas que las de ingresos altos. La realidad en Oakland es que en todos los barrios, independientemente de su raza o ingresos, los delitos relacionados con drogas son uniformes.
  • Alerta para la salud por las cantidades de plomo en el agua de Washington: el cambio del desinfectante del agua en Washington aumentó la corrosión en las tuberías de plomo de la ciudad, elevando la cantidad de este metal en el agua. Tuvieron que realizarse estudios por parte del Centro para el Control y la Prevención de Enfermedades de EEUU (CDC) para evaluar cómo esta consecuencia de la mala recogida de los datos pudo afectar a la salud de sus habitantes, tranquilizando a la ciudadanía.
  • Estudio fallido de previsión de gripe de Google: el estudio de la previsión de la gripe de Google monitorearía las búsquedas de los usuarios e identificaría los lugares donde muchas personas estaban investigando diversos síntomas de la gripe. En esos lugares, el programa alertaría a las autoridades de salud pública de que más personas estaban a punto de contraer la gripe. Pero un cambio en el algoritmo de Google ocasionó que para ciertas búsquedas se relacionara con la gripe lo que provocó que se hiciera una previsión del doble de los funcionarios de salud pública. Este error fue publicado incluso en la revista Science.
  • Deportaciones por fallos en la recogida de datos por voz: hasta 7.000 estudiantes extranjeros fueron expulsados del Reino Unido debido a errores en los datos de reconocimiento de voz. Los resultados de las pruebas de Educational Testing Services, una compañía con sede en Princeton, estaban basados en un sistema automatizado para identificar pruebas falsas en los resultados que resultó ser defectuoso.

Estos son algunos ejemplos de los problemas que puede conllevar la incorporación de datos erróneo, corruptos o incompletos al Big Data. Esto no significa que haya que renunciar a sus ventajas “pero sí que hay que tener un mayor cuidado y prestar más atención a cómo se está ejecutando para evitar el Bad Data” concluye Gemma Galdon.