La IA finlandesa busca identificar los factores de riesgo de la infancia

En Espoo, la segunda ciudad más grande de Finlandia, se implementó un software destinado a identificar los factores de riesgo asociados con la necesidad de servicios sociales y médicos entre los niños, un sistema con unos costos éticos dudosos (Algorithm Watch, 2019). El modelo, desarrollado por una empresa llamada Tieto, analizó datos anónimos de atención médica y atención social de la población de la ciudad y datos de clientes de educación infantil. Produjo resultados preliminares, descubriendo “aproximadamente 280 factores que podrían anticipar la necesidad de servicios de bienestar infantil” (ibíd.).

El sistema no tenía precedentes en Finlandia; ningún otro programa había utilizado el aprendizaje automático para integrar y analizar datos de servicio público (ibid). La próxima iteración del sistema buscará “utilizar IA para asignar servicios de manera preventiva e identificar posibles socios relevantes para cooperar con ese objetivo” (ibid).

Las autoridades finlandesas se están tomando en serio las cuestiones éticas y legales, pero el uso de algoritmos predictivos por parte de administraciones públicas encargadas de asignar beneficios sociales ha obtenido, en otros casos, unos pobres resultados, incluyendo errores de discriminación. Además, el hecho de que se recurra a empresas privadas para que se encarguen del gran peso de los datos (almacenamiento, procesamiento y análisis) añade una capa de preocupación a la situación. Dada la naturaleza propietaria del software que producen, pueden surgir problemas relacionados con la transparencia algorítmica.