El algoritmo de contenido personalizado de Facebook y Google crea lo que se conocen como cámaras de eco sociales, es decir, producidas por los medios y redes sociales que consumimos.

A medida que las plataformas de información de Internet como Google y Facebook continúan creciendo en importancia y ubicuidad, han comenzado a reemplazar a los intermediarios tradicionales de los medios. El investigador Bozdag (2013) argumenta que esta transición ha convertido a Google y Facebook en “los guardianes de nuestra sociedad”. Sin embargo, Google y Facebook (entre otros intermediarios de contenidos digitales), debido a su modelo de difusión de información según estrategias de contenido personalizadas, han sido víctimas de la producción de “cámaras de eco” o “filtros burbuja” (ibíd.). Como si fueran guardianes de la sociedad, las cámaras de eco de Google y Facebook plantean riesgos considerables para la salud de la democracia y la durabilidad del tejido de la sociedad en red.

Una filtro burbuja se define en términos más formales como un “ecosistema personal de información que ha sido elaborado y entregado por estos algoritmos” (ibid). El perfil de un usuario de Internet se construye a través de su historial de navegación y búsqueda cuando indica interés en los temas “haciendo clic en los enlaces, viendo amigos, poniendo películas en [su] cola, leyendo noticias” (ibíd.). Una empresa de Internet agrega esta información para dirigir la publicidad al usuario o hacer que ciertos tipos de información aparezcan de manera más prominente en las páginas de resultados de búsqueda.

Desde 2004, Google utiliza la Búsqueda Personalizada de Google para su motor de búsqueda, que se basa en los registros de cookies de los navegadores. Este algoritmo utiliza más de 50 variables (‘señales’), incluido el historial de búsqueda o la ubicación. Estas variables y sus diferentes pesos personalizan y adaptan los resultados de una búsqueda a cada usuario (Portent Team, 2014).

El peligro de los filtros burbuja es que son bastante invisibles; muchas personas ignoran por completo incluso que existen. The Guardian informó que “más del 60% de los usuarios de Facebook desconoce por completo cualquier tipo de curaduría en Facebook, creyendo en cambio que todas y cada una de las historias de sus amigos y páginas de seguimiento aparecían en su canal de noticias” (Hern, 2017). Los filtros burbuja y las cámaras de eco también presentan el sesgo de confirmación, ofreciendo a los usuarios información con la que previamente ya han indicado que están de acuerdo. La arquitectura de un sistema de contenido personalizado disuade activamente e impide que los usuarios encuentren información que puedan considerar desagradable o poco agradable. Se ha encontrado que el algoritmo de Newsfeed de Facebook reduce el contenido político transversal en un 5 por ciento para los conservadores y un 8 por ciento para los liberales. (Bleiberg and Darrel, 2017). Esto tiene repercusiones dramáticas para la salud de los movimientos sociales y el diálogo social, así como en la velocidad a la que puede tener lugar la radicalización política.

A veces, el filtro burbuja puede integrar suposiciones sesgadas o discriminatorias, derivadas de la reproducción de ciertos patrones asociados con grupos o perfiles sociales específicos. Un ejemplo bien conocido de esto es el papel del motor de búsqueda de Google en las elecciones presidenciales de EE.UU. del año 2012. El análisis de The Wall Street Journal apunta a que los resultados de búsqueda de Google favorecieron a Barack Obama, cuyas búsquedas fueron más personalizadas que las correspondientes a Romney (Boutin, 2011)