¿Las cámaras de eco de las redes sociales profundizan la polarización política o simplemente reflejan las divisiones sociales existentes?
Un proyecto de investigación histórico que investigó a Facebook en torno a las elecciones presidenciales de EE. UU. de 2020 publicó sus primeros resultados el jueves y descubrió que, contrariamente a lo que se suponía, el algoritmo de clasificación de contenido de la plataforma, a menudo criticado, no da forma a las creencias de los usuarios.
El trabajo es el producto de una colaboración entre Meta, la empresa matriz de Facebook e Instagram, y un grupo de académicos de universidades estadounidenses a quienes se les dio amplio acceso a los datos internos de la empresa y registraron a decenas de miles de usuarios para experimentos.
El equipo académico escribió cuatro artículos que examinan el papel del gigante de las redes sociales en la democracia estadounidense, que se publicaron en las revistas científicas Science y Nature.
En general, se descubrió que el algoritmo es «extremadamente influyente en las experiencias de las personas en la plataforma», dijeron los líderes del proyecto Talia Stroud de la Universidad de Texas en Austin y Joshua Tucker, de la Universidad de Nueva York.
En otras palabras, tuvo un gran impacto en lo que vieron los usuarios y cuánto usaron las plataformas.
«Pero también sabemos que es poco probable que cambiar el algoritmo, incluso durante unos pocos meses, cambie las actitudes políticas de las personas», dijeron, según lo medido por las respuestas de los usuarios en las encuestas después de que participaron en experimentos de tres meses que alteraron la forma en que recibieron contenido.
Los autores reconocieron que esta conclusión podría deberse a que los cambios no se implementaron durante el tiempo suficiente para tener un impacto, dado que Estados Unidos se ha polarizado cada vez más durante décadas.
Sin embargo, «estos hallazgos desafían las narrativas populares que culpan a las cámaras de eco de las redes sociales por los problemas de la democracia estadounidense contemporánea», escribieron los autores de uno de los artículos, publicado en Nature.
‘Sin balas de plata’
El algoritmo de Facebook, que utiliza el aprendizaje automático para decidir qué publicaciones llegan a la cima de los feeds de los usuarios en función de sus intereses, ha sido acusado de generar «burbujas de filtro» y permitir la difusión de información errónea.
Los investigadores reclutaron alrededor de 40 000 voluntarios a través de invitaciones colocadas en sus feeds de Facebook e Instagram, y diseñaron un experimento en el que un grupo estuvo expuesto al algoritmo normal, mientras que el otro vio las publicaciones enumeradas de la más nueva a la más antigua.
Facebook utilizó originalmente un sistema cronológico inverso y algunos observadores han sugerido que volver a utilizarlo reducirá los efectos nocivos de las redes sociales.
El equipo descubrió que los usuarios del grupo de alimentación cronológica pasaban alrededor de la mitad del tiempo en Facebook e Instagram en comparación con el grupo del algoritmo.
En Facebook, los del grupo cronológico vieron más contenido de amigos moderados, así como más fuentes con audiencias ideológicamente mixtas.
Pero el feed cronológico también aumentó la cantidad de contenido político y no confiable visto por los usuarios.
A pesar de las diferencias, los cambios no provocaron cambios detectables en las actitudes políticas medidas.
«Los hallazgos sugieren que la alimentación cronológica no es una panacea para problemas como la polarización política», dijo la coautora Jennifer Pan de Stanford.
►La entrada El algoritmo de Facebook no altera las creencias de las personas: Investigación se publicó primero en MxPolítico.◄