Meta y la censura digital en redes: "Cuando hablas de Palestina te sientes como encerrada en una jaula"
- Usuarios de Facebook e Instagram han denunciado que Meta censura contenido relacionado con Palestina
- Destaca un nuevo tipo de censura, el shadowbanning o baneo en la sombra
Más allá de su función como plataformas de entretenimiento, las redes sociales se han convertido en espacios clave para la denuncia de abusos, visibilizar injusticias y la organización de movimientos sociales, especialmente en contextos donde los medios tradicionales se enfrentan a limitaciones. Desde el 7 de octubre de 2023, tras los ataques de Hamás y la posterior ofensiva en la que el Gobierno de Israel ha asesinado a más de 55.000 palestinos, periodistas y otras personalidades mediáticas utilizan sus cuentas para informar de lo que ocurre en la Franja de Gaza.
Muchas de estas personas han denunciado la censura o la supresión de publicaciones en diversas ocasiones. Estas dificultades para informar se ven exacerbadas por la prohibición de las autoridades israelíes de no dejar entrar a periodistas internacionales en la Franja.
Violaciones digitales contra la libertad de información
Nida Bassoumi pertenece a la organización Sada Social, que desde 2017 documenta violaciones digitales contra publicaciones de usuarios palestinos. "Las restricciones a las que se enfrentan los usuarios son múltiples; eliminan sus cuentas o las suspenden temporalmente, reducen la visibilidad de publicaciones relacionadas con la agresión israelí, restringen las interacciones o suspenden sus cuentas y páginas en resultados de búsqueda. La mayoría de estas acciones son, además, en contra de personas, no de organizaciones", asegura Bassoumi en conversación con Radio Nacional de España, aunque resalta que es una cuestión de proporción porque "el número de usuarios individuales es mucho mayor que el de instituciones, no es que Meta sea más indulgente con las organizaciones".
Aunque el incremento es reciente, la censura lleva produciéndose desde hace una década, coincidiendo con el estallido de enfrentamientos en 2015 entre fuerzas israelíes y palestinos en la Cisjordania ocupada, después del aumento de la tensión por la expansión de asentamientos israelíes, las demoliciones de viviendas palestinas y disputas en torno al acceso y la administración de la mezquita de Al-Aqsa.
En algunos casos, la censura se ha traducido en que los propios usuarios restringen sus publicaciones. "Esto significa que, si la gente no comparte las noticias porque tiene miedo de que se les elimine la cuenta, mucha gente no va a verlas, generando una especie de apagón mediático", señalan desde Sada Social. Estas acciones pueden suponer la violación de los derechos digitales de los usuarios. "Estamos hablando del derecho a la libertad de expresión, del derecho a acceder a la información y de la libertad de prensa. La gente tiene derecho a saber lo que está pasando en Palestina y ninguna plataforma debería poder decidir lo que se elimina", afirma Nida.
Meta y la moderación automática de contenido
A finales de 2023, Human Rights Watch publicó un informe en el que exponía evidencias de que Meta estaba censurando contenido en las plataformas de Instagram y Facebook. Según la ONG, la censura se produce al moderar el contenido. Este término se refiere al proceso en el que se decide qué publicaciones se eliminan de las plataformas. Actualmente, esta fase se encuentra delegada mayoritariamente a la inteligencia artificial. Rodrigo Cetina, experto en inteligencia artificial y plataformas de internet, asegura que durante este proceso, "Meta dice que utiliza de manera prioritaria los algoritmos para detectar los contenidos ilegales y restringir su propagación en la plataforma incluso antes de que cualquier usuario pueda verlo".
Todo esto supone ciertos retos, como "que la tecnología falle más que un ser humano, y que reproduzca los errores y problemas ya existentes". Entre estos problemas, Cetina destaca los ejemplos de "hacer caso en todo momento a lo que les piden las autoridades de ciertos países para eliminar contenido e implementar sistemas que tengan en cuenta las peticiones de los Gobiernos y no los derechos humanos, o las políticas comunitarias inconsistentes". Según el experto, esto tiene consecuencias como la retirada de contenido que no tiene que ser retirado y que suponga posibles casos de censura.
Cetina señala también otros problemas estructurales que plataformas como Meta no atienden. El primero es el modelo de negocio que las sustenta, donde "lo que prima es el dinero, no apuestan por tener entornos saludables, libres de desinformación o de discursos de odio", asegura. Por otra parte, Cetina resalta la falta de transparencia: "No cuentan exactamente cómo funcionan y qué es lo que hacen, aunque la ley así lo pida".
Un nuevo tipo de censura, el shadowbanning
Pese a que los problemas de censura no son nuevos, en los últimos meses han surgido otros patrones. Marwa Fatafta, integrante de Access Now, una organización que defiende los derechos digitales de las minorías, advierte que el shadowbanning, o baneo en la sombra, se ha convertido en una nueva forma de censura, especialmente después de 2021, cuando los palestinos comenzaron a protestar en redes sociales por la expulsión ordenada por tribunales israelíes de varias familias palestinas del barrio Sheikh Jarrah del ocupado este de Jerusalén, una acción ilegal según el derecho internacional.
El baneo en la sombra consiste en restringir la visibilidad de un usuario o su contenido sin que el usuario sea directamente informado de ello. "Cuando hablas de Palestina en tus redes sociales te sientes como encerrado en una jaula donde estás subiendo publicaciones pero nadie las ve", asegura Marwa.
Según el informe de Human Rights Watch, la falta de transparencia por parte de Meta en torno a las prácticas de shadowbanning impide conocer los criterios exactos de restricción. Además, al no notificar a los usuarios sobre las medidas aplicadas a sus cuentas o contenidos, se les deja sin posibilidad de apelación ni explicación. Destacan que, aunque se trata de una restricción difícil de detectar debido a que la propia plataforma no advierte de ello, se ha podido demostrar a través de capturas de pantalla de múltiples usuarios que mostraban el antes y el después de las visualizaciones tras compartir contenido propalestino.
El papel del idioma en la moderación de contenido
Después de la escalada de censura en 2021, la sociedad civil pidió a la compañía que se llevara a cabo una investigación independiente que confirmó lo que la compañía había negado. "Que la empresa tenía un doble rasero con el discurso palestino e israelí, y que, por ejemplo, se sobremoderaba el contenido árabe y se inframoderaba el contenido hebreo, por lo que el discurso de odio israelí liderado por extremistas y colonos que directamente pedían la muerte de los palestinos o incitaban a la violencia contra ellos no se eliminaba. Meta no tenía los algoritmos entrenados para detectar este contenido en el idioma hebreo", explica Marwa a RNE.
Rodrigo Cetina asegura que se trata de un problema serio en la moderación de contenido. "Con idiomas como el inglés no hay ningún problema, porque es un idioma que habla muchísima gente. La cosa cambia cuando hablamos de idiomas como el árabe, los algoritmos no están tan entrenados con este lenguaje, pero el mismo problema hay con la moderación humana. Si hablamos del hebreo, es todavía más evidente que no existe una moderación adecuada".
Un ejemplo que señala Fatfa es la palabra mártir (shahid): "Es muy utilizada en el contexto palestino, es parte del léxico político y social y se refiere a cualquiera que haya sido asesinado por las fuerzas de ocupación. En un momento como este, la palabra se está utilizando mucho y Meta la ha catalogado como enaltecimiento del terrorismo bajo su política de organizaciones peligrosas. Según una consulta que se le hizo a la plataforma, la utilización de esta palabra ha sido la que más eliminaciones de contenido ha generado bajo todas las políticas comunitarias de moderación de contenido".
La posible colaboración entre Israel y grandes tecnológicas
Desde Sada Social y Access Now coinciden en que el Gobierno de Israel está colaborando directamente con grandes empresas tecnológicas como Meta. Nida Bassoumi afirma que hay muchas pruebas claras. "Por ejemplo, varios exfuncionarios de seguridad israelíes trabajan ahora en Meta. Y al principio del actual genocidio, el Gobierno israelí se reunió con TikTok para hablar de la vigilancia de los contenidos palestinos. Lo mismo ocurrió con X: Elon Musk recorrió la frontera de Gaza con el primer ministro israelí, Benjamín Netanyahu, y luego publicó tuits antipalestinos con términos bloqueados como 'descolonización' y 'Palestina desde el río hasta el mar' como amenazas".
"Hay una unidad del ejército israelí, la unidad ciber, que se dedica exclusivamente a enviar peticiones a Meta para que eliminen el contenido de Facebook o Instagram", comenta Marwa. "No rehuyen de mencionar abiertamente la colaboración, ni de que mandan peticiones para eliminar este contenido, bajo el pretexto de que es contenido terrorista. No solo mandan peticiones para palestinos que viven en Palestina, sino para contenido propalestino desde dondequiera que se suba".
Pese a las denuncias de organizaciones de derechos humanos y digitales, las grandes empresas tecnológicas continúan sin asumir plenamente su responsabilidad frente a los problemas expuestos. La falta de transparencia, la censura arbitraria y la desprotección de usuarios en contextos donde los derechos fundamentales están en riesgo siguen siendo cuestiones pendientes de resolver. Estas mismas organizaciones subrayan que el respeto por los derechos humanos tiene que estar en el centro de las políticas digitales y que las plataformas no pueden eludir el papel clave que desempeñan en la protección o vulneración de estas garantías fundamentales.