La censura en redes sociales ya no se realiza a través de la eliminación de contenido, se hace haciéndolo irrelevante. Las plataformas no necesitan eliminar tus publicaciones: simple y sencillamente las hacen invisibles para los demás. Es el equivalente a hablar en una habitación vacía. El contenido está ahí, pero nadie lo puede ver. Esta práctica se llama shadow banning y es el mecanismo más silencioso y efectivo para controlar el discurso público en internet.
El fenómeno está totalmente normalizado. Las plataformas lo justifican bajo la etiqueta de “moderación”, pero la verdad es que funciona como una censura privatizada: es automática, opaca, sin aviso al usuario y sin posibilidad de defenderte. Si un algoritmo te clasifica a ti como “disruptivo”, tu alcance se vuelve nulo. Tu nombre ya no aparece en las búsquedas y tus publicaciones ya no circulan. Y no hay advertencia o explicación alguna.
Este tipo de control afecta tanto a quienes cuestionan al poder como a quienes dependen de su audiencia para poder vivir: periodistas, activistas, emprendedores, académicos y organizaciones civiles. Desde 2024 se ha visto cómo perfiles que mencionan corrupción, autoritarismo o temas sensibles pierden hasta el 90% de su visibilidad orgánica en cuestión de semanas, sin ninguna falta visible a los reglamentos. Los demás no nos damos cuenta, pero sin duda afecta la conversación pública.
Lo que más preocupa es que esta forma de censura no pasa por error: se realiza mediante algoritmos que son diseñados para “proteger al usuario”, pero que terminan filtrando opiniones según criterios internos que nadie sabe bien cuales son. Es una moderación sin contrapesos ni auditoría pública, ejercida por unas cuantas corporaciones que tienen probablemente más poder editorial que los gobiernos y, por supuesto, menos obligaciones de transparencia.
Los usuarios encontraron ahora su propio lenguaje: el algospeak, que funciona modificando palabras para evadir los filtros automáticos. También aparece el famoso fenómeno de “funar”, que en pocas palabras es denunciar masivamente a una cuenta para desaparecerlo de las plataformas. Es una espiral tóxica donde la autocensura se vuelve necesaria y el lenguaje se deforma para complacer a las máquinas.
En esta situación el problema es la falta de reglas claras y mecanismos de protección para los usuarios. La libertad de expresión no se puede defender solamente permitiendo que la gente publique, se debe garantizar que las ideas puedan circular sin que puedan desaparecer por arte de magia. Esto es salud democrática.
Las plataformas deberían estar obligadas a notificar cuando limitan el alcance de una cuenta, explicar por qué lo hacen y ofrecer una vía transparente de apelación. Y el Estado debe asumir su rol para supervisar y exigir rendición de cuentas. La Unión Europea ya avanzó con la Ley de Servicios Digitales; México y América Latina… ni sus luces.
Lo que está en juego no el hecho de poder publicar en redes sociales, sino el derecho a ser parte de la conversación pública. La censura más efectiva es la que no se reconoce como tal. Si permitimos que el silencio se normalice como parte del diseño digital, habremos renunciado al debate sin darnos cuenta. Lo que podemos tomar como un hecho es que la irrelevancia se ha vuelto el castigo perfecto.




