La política de moderación de contenidos adoptada por Meta durante la pandemia de COVID-19 para frenar la desinformación en Facebook no ha demostrado ser un gran obstáculo para que los usuarios puedan encontrar soluciones alternativas, según un nuevo estudio realizado por investigadores de medios digitales y sociales de la Universidad de Tecnología. Sydney y la Universidad de Sydney.
Publicado recientemente en la revista Media International Australia, el estudio analizó la efectividad de estrategias como el etiquetado de contenido y el Shadowbanning durante 2020 y 2021, un Shadowbanning que implica la reducción algorítmica de contenido problemático en las noticias, búsquedas y recomendaciones de los usuarios.
La autora principal, la profesora asociada de la UTS, Amelia Johns, dijo que el análisis encontró que las cuentas de extrema derecha y antivacunas en algunos casos disfrutaron de una mayor participación y seguidores después de los anuncios de política de contenido de Meta.
«Esto pone en duda cuán serio ha sido Meta a la hora de eliminar contenido dañino», dijo el profesor asociado Johns.
«La empresa ha invertido en políticas de moderación de contenidos que favorecen la libre expresión, prefiriendo el etiquetado de contenidos y la supresión basada en algoritmos a la eliminación.
«La compañía señala un modelo interno que muestra que los usuarios intentarán encontrar soluciones alternativas al contenido que se elimina, razón por la cual, afirma, la eliminación no es efectiva.
«Sin embargo, nuestra investigación muestra que los Shadowbans y el etiquetado de contenido son solo parcialmente efectivos y, de la misma manera, incentivan soluciones alternativas por parte de los usuarios dedicados a superar las intervenciones de la plataforma y difundir información errónea.
«Estaba claro que las comunidades de extrema derecha y antivacunas no se dejaron disuadir por las políticas de Meta de suprimir en lugar de eliminar información errónea peligrosa durante la pandemia, empleando tácticas que refutaban el modelo interno de Meta.
«En esencia, los usuarios se unieron como una comunidad para jugar con el algoritmo en lugar de permitir que el algoritmo determine a qué contenido podían acceder y cómo.
«Esto demuestra que el éxito de la política de Meta para suprimir en lugar de eliminar la información errónea es fragmentario, inconsistente y aparentemente despreocupado por las comunidades susceptibles y los usuarios que encuentran información errónea».
►La entrada El éxito de Meta en la supresión de información errónea en Facebook es, en el mejor de los casos, irregular, según un estudio se publicó primero en MxPolítico.◄