Redacción Mx Político.- YouTube era más propenso a recomendar videos sobre fraude electoral a usuarios que ya eran escépticos sobre la legitimidad de las elecciones presidenciales de EE. UU. de 2020, según muestra un nuevo estudio que examina el impacto de los algoritmos del sitio.
Los resultados de la investigación, que se publicaron en el Journal of Online Trust and Safety, mostraron que a los más escépticos sobre la legitimidad de las elecciones se les mostraron tres veces más videos relacionados con el fraude electoral que a los participantes menos escépticos: aproximadamente 8 recomendaciones adicionales. de aproximadamente 400 videos sugeridos a cada participante del estudio.
Si bien la prevalencia general de este tipo de videos fue baja, los hallazgos exponen las consecuencias de un sistema de recomendación que brinda a los usuarios el contenido que desean. Para aquellos más preocupados por un posible fraude electoral, mostrarles contenido relacionado proporcionó un mecanismo por el cual la información errónea, la desinformación y las conspiraciones pueden llegar a quienes tienen más probabilidades de creerlas, observan los autores del estudio. Es importante destacar que estos patrones reflejan la influencia independiente del algoritmo sobre lo que se muestra a los usuarios reales mientras usan la plataforma.
“Nuestros hallazgos revelan las consecuencias perjudiciales de los algoritmos de recomendación y ponen en duda la opinión de que los entornos de información en línea están determinados únicamente por la elección del usuario”, dice James Bisbee, quien dirigió el estudio como investigador postdoctoral en el Centro de Medios Sociales y Política de la Universidad de Nueva York. (CSMaP).
Casi dos años después de las elecciones presidenciales de 2020, un gran número de estadounidenses, en particular los republicanos, no creen en la legitimidad del resultado.
“Aproximadamente el 70% de los republicanos no ven a Biden como el ganador legítimo”, a pesar de “múltiples recuentos y auditorías que confirmaron la victoria de Joe Biden”, escribió PolitiFact del Instituto Poynter a principios de este año.
Si bien es bien sabido que las plataformas de redes sociales, como YouTube, dirigen el contenido a los usuarios en función de sus preferencias de búsqueda, es posible que las consecuencias de esta dinámica no se perciban por completo.
En el estudio CSMaP, los investigadores tomaron muestras de más de 300 estadounidenses con cuentas de YouTube en noviembre y diciembre de 2020. Se preguntó a los sujetos qué tan preocupados estaban con una serie de aspectos del fraude electoral, incluido el conteo de boletas fraudulentas, el descarte de boletas válidas, la interferencia de gobiernos extranjeros y la votación de ciudadanos no estadounidenses, entre otras cuestiones.
Luego se les pidió a estos participantes que instalaran una extensión de navegador que registraría la lista de recomendaciones que se les mostraba. Luego, se instruyó a los sujetos para que hicieran clic en un video de YouTube asignado al azar (el video “semilla”), y luego para hacer clic en una de las recomendaciones que se les mostró de acuerdo con una “regla transversal” asignada al azar. Por ejemplo, los usuarios asignados a la “segunda regla transversal” deberán hacer clic siempre en el segundo video de la lista de recomendaciones que se muestra, independientemente de su contenido. Al restringir el comportamiento del usuario de esta manera, los investigadores pudieron aislar la influencia del algoritmo de recomendación en lo que se sugería a los usuarios reales en tiempo real.
Luego, los sujetos procedieron a través de una secuencia de videos recomendados de YouTube, lo que permitió a los investigadores observar lo que el algoritmo de YouTube sugería a sus usuarios. Luego, Bisbee y sus colegas compararon la cantidad de videos sobre fraude electoral en las elecciones presidenciales de EE. UU. de 2020 que se recomendaron a los participantes que se mostraron más escépticos sobre la legitimidad de las elecciones con los recomendados a los participantes que se mostraron menos escépticos. Estos resultados mostraron que a los escépticos electorales se les recomendó un promedio de ocho videos adicionales sobre posibles fraudes en las elecciones estadounidenses de 2020, en relación con los participantes no escépticos (12 frente a 4).
“Muchos creen que los algoritmos de recomendación automatizados tienen poca influencia en las ‘cámaras de eco’ en línea en las que los usuarios solo ven contenido que reafirma sus puntos de vista preexistentes”, observa Bisbee, ahora profesor asistente en la Universidad de Vanderbilt.
“Nuestro estudio, sin embargo, sugiere que el algoritmo de recomendación de YouTube pudo determinar qué usuarios tenían más probabilidades de estar preocupados por el fraude en las elecciones presidenciales de EE. UU. de 2020 y luego sugirió hasta tres veces más videos sobre fraude electoral a estos usuarios en comparación con los que menos preocupados por el fraude electoral. Esto destaca la necesidad de una mayor investigación sobre cómo funcionan los algoritmos de recomendación opacos sobre una base de problema por problema”.
El cargo YouTube recomienda más videos de fraude electoral a quienes siguen escépticos hasta hoy sobre la legitimidad de las elecciones de 2020 en EU apareció primero en Noticias MX Político.