La industria americana de seguros de automóviles se basa en algoritmos opacos para dar cotizaciones de cuotas

En los Estados Unidos, el seguro de coche es legalmente requerido en todos los estados menos en uno. Una investigación reciente señala que la industria de los seguros de automóviles se beneficia ampliamente de las prácticas algorítmicas encubiertas y del uso turbio de los datos de los consumidores. Un análisis realizado en 2015 por Consumer Reports (una organización independiente sin fines de lucro que lucha por la verdad, la transparencia y la justicia en el mercado) encontró que las compañías de seguros de automóviles utilizan algoritmos que dan a los clientes cotizaciones de tarifas basadas menos en sus hábitos de conducción y más en su estatus socioeconómico (Consumer Reports, 2015). El análisis de los datos evaluó más de 2.000 millones de cotizaciones de precios de seguros de automóviles de más de 700 empresas con la mayor cuota de clientes en cada código postal de EE.UU. de 2015 a 2016. Se identificó la forma en que las empresas de seguros de automóviles utilizan algoritmos de puntuación que evalúan factores como el historial crediticio, el historial financiero y las preferencias de los consumidores (por ejemplo, el proveedor de televisión) (ibíd.).

Los estudiosos del derecho y la tecnología se han vuelto cautelosos con los efectos de los sistemas de puntuación de crédito alimentados por el big data. Los sistemas integran miles de datos (normalmente sin conocimiento de los consumidores) y crean serios problemas de transparencia (Hurley & Adebayo, 2016). La aplicación de los análisis de Big Data a las evaluaciones de la solvencia crediticia suele crear prácticas discriminatorias contra ciertas comunidades marginadas (Ibíd.). El resultado discriminatorio de los algoritmos a menudo puede confundirse con un esfuerzo deliberado y concentrado; sin embargo, es el resultado de atributos neutrales o no protegidos (como el código postal) que sirven como proxies de características inmutables y protegidas (como el género o la raza) dentro del procesamiento algorítmico. A pesar de que las variables protegidas nunca han sido utilizadas en el modelo, el resultado discriminatorio es el mismo. Como resultado de ello, el uso de representantes problematiza los esfuerzos por litigar con las empresas por infringir las normas antidiscriminatorias existentes para las características protegidas (Ibíd.). En relación con esto, el análisis Big Data ha apoyado la selección de clientes vulnerables y la aplicación de políticas de precios abusivas, que es precisamente lo que Consumer Reports descubrió en su informe de la industria de seguros de automóviles de 2015.