A medida que la desinformación florecía en línea durante la pandemia de COVID-19, varias plataformas anunciaron políticas y prácticas destinadas a combatir la difusión de información errónea. ¿Funcionaron esos esfuerzos?
Una investigación publicada en Science Advances sugiere que las políticas de desinformación sobre vacunas COVID-19 de Facebook, la plataforma de redes sociales más grande del mundo, no fueron efectivas para combatir la desinformación. El estudio se titula «La eficacia de las políticas y arquitectura de desinformación de vacunas de Facebook durante la crisis de COVID-19″. Pandemia». Investigadores de la Universidad Johns Hopkins contribuyeron al informe.
El estudio, dirigido por investigadores de la Universidad George Washington, encontró que los esfuerzos de Facebook se vieron socavados por las características centrales de diseño de la propia plataforma.
«Hoy en día se presta mucha atención a las plataformas de redes sociales y a la gobernanza de la inteligencia artificial. Sin embargo, esta discusión se centra en gran medida en el contenido o en los algoritmos. Para abordar eficazmente la desinformación y otros daños en línea, debemos ir más allá del contenido y los algoritmos para centrarnos también en el diseño. y arquitectura», dice David Broniatowski, autor principal del estudio y profesor asociado de gestión de ingeniería e ingeniería de sistemas en GW.
«Nuestros resultados muestran que eliminar contenido o cambiar algoritmos puede ser ineficaz si no cambia para qué está diseñada la plataforma: permitir que los miembros de la comunidad se conecten en torno a intereses comunes (en este caso, la vacilación sobre las vacunas) y encuentren información que les motive. para buscar.»
Facebook está diseñado para construir comunidades en torno a las cosas que le interesan a la gente. Para ello, utiliza varias características arquitectónicas diferentes, incluidas páginas de fans que promocionan marcas y celebridades de la comunidad, lo que permite que un grupo relativamente pequeño de personas influyentes llegue a grandes audiencias.
Luego, estos influencers pueden formar grupos, que están diseñados explícitamente para construir comunidades, donde los miembros de la comunidad pueden intercambiar información, incluido cómo acceder a información errónea u otro contenido atractivo fuera de la plataforma.
Estos miembros del grupo, y especialmente los administradores del grupo (que a menudo son creadores de contenido de la página) pueden luego utilizar los algoritmos de suministro de noticias de Facebook para asegurarse de que esta información esté disponible para quienes quieran verla.
Los investigadores descubrieron que, si bien Facebook hizo un esfuerzo significativo para eliminar una gran cantidad de contenido antivacunas durante la pandemia de COVID-19, el compromiso general con el contenido antivacunas no disminuyó más allá de las tendencias anteriores y, en algunos casos, incluso aumentó.
«Este hallazgo (que las personas tenían la misma probabilidad de interactuar con información errónea sobre vacunas antes y después de los extensos esfuerzos de eliminación de Facebook) es increíblemente preocupante. Muestra la dificultad que enfrentamos como sociedad para eliminar la información errónea sobre salud de los espacios públicos», dice Lorien Abroms, autor del estudio. autor y profesor de salud pública en la Escuela de Salud Pública del Instituto Milken de GW.
En el contenido que no se eliminó, hubo un aumento en los enlaces a sitios fuera de la plataforma y de baja credibilidad y enlaces a información errónea en plataformas de redes sociales «alternativas» como Gab y Rumble, especialmente en grupos antivacunas.
Además, el contenido antivacunas que quedaba en Facebook se volvió más (no menos) desinformativo, con afirmaciones falsas y sensacionalistas sobre los efectos secundarios de las vacunas que a menudo eran demasiado nuevas para ser verificadas en tiempo real. También hubo «daños colaterales», dice el informe. investigadores, ya que el contenido a favor de las vacunas también puede haber sido eliminado como resultado de las políticas de la plataforma y, en general, el contenido relacionado con las vacunas se volvió más polarizado políticamente.
Además, los productores de contenido antivacunas utilizaron la plataforma de manera más efectiva que los productores de contenido provacunas. Aunque ambos tenían grandes redes de páginas, los productores de contenido antivacunas coordinaron de manera más efectiva la entrega de contenido entre páginas, grupos y canales de noticias de los usuarios.
Incluso cuando Facebook modificó sus algoritmos y eliminó contenido y cuentas para combatir la desinformación sobre vacunas, los investigadores dicen que la arquitectura de la plataforma retrocedió.
«Piense en la arquitectura de Facebook como en un edificio. Un aeropuerto está diseñado para dirigir a las personas para que puedan llegar y salir de las puertas de manera fácil y segura, y un estadio está diseñado para reunir de manera segura a un grupo de personas para un espectáculo. Si estos edificios no estuvieran diseñados para Si no se equilibran los viajes y el entretenimiento con la seguridad, las personas podrían resultar heridas habitualmente», afirma Broniatowski.
«Ahora piense en la estructura de Facebook de la misma manera: está diseñada para permitir que personas motivadas creen comunidades e intercambien fácilmente información sobre cualquier tema».
«Las personas que están muy motivadas para encontrar y compartir contenido antivacunas simplemente están usando el sistema de la forma en que fue diseñado, lo que dificulta equilibrar esos comportamientos con la salud pública u otras preocupaciones de seguridad pública. Hay que cambiar la arquitectura si quieres crear ese equilibrio.»
El trabajo de Broniatowski sugiere que los diseñadores de plataformas de redes sociales podrían promover la salud y la seguridad públicas trabajando en colaboración para desarrollar un conjunto de «códigos de construcción» para sus plataformas que se basen en evidencia científica para reducir los daños en línea.
«Los arquitectos de la construcción tienen que equilibrar los objetivos de diseño de un edificio con el cumplimiento de las normas para proteger a las personas que lo utilizan», explica.
«Deben diseñarse para promover la seguridad pública cumpliendo con los códigos contra incendios, inundaciones, contaminación y terremotos. Deben promover la seguridad incorporando características de diseño como entradas, salidas y torniquetes accesibles y bien señalizados para evitar el vandalismo, el pánico » «
«Estas reglas generalmente se desarrollan mediante una asociación entre la industria, el gobierno y las organizaciones comunitarias, y se basan en ciencia y práctica sólidas. Las estrategias de gobernanza podrían facilitar estas asociaciones y respaldar la ciencia».
Según los investigadores, esta es la primera y única evaluación científica de la eficacia del intento de la plataforma de redes sociales más grande del mundo de eliminar sistemáticamente información errónea y cuentas desinformativas.
►La entrada El diseño de Facebook le impide controlar la información errónea, sugiere una investigación se publicó primero en MxPolítico.◄