Enlaces accesibilidad
La noche temática

¿Quién controla la red?

  • ¿Quién controla lo que vemos y lo que pensamos en las redes?
  • Las redes sociales como Facebook, YouTube y Twitter aspiran a crear una comunidad global
  • Las redes sociales se enfrentan a un desafío: la propaganda terrorista, la violencia y la incitación al odio
  • El debate entre la censura y la libertad de expresión es complejo.
  • La Noche Temática nos acerca a los moderadores de contenidos de la red en La 2, la medianoche del sábado 3 de noviembre

Por
La noche temática - ¿Quién controla la red? - avance

Las redes sociales como Facebook, YouTube y Twitter aspiran a crear una comunidad global. Pero en los últimos tiempos estas redes sociales se enfrentan a un desafío: la propaganda terrorista, la violencia y la incitación al odio.

¿Quién controla lo que vemos y lo que pensamos en las redes? Silicon Valley tiene su propio criterio sobre lo que se debe ignorar o borrar de la red. El debate entre la censura y la libertad de expresión es complejo.

'La noche temática' nos acerca a los moderadores de contenidos de la red.

¿Quién controla lo que vemos y lo que pensamos en las redes?

¿Quién controla lo que vemos y lo que pensamos en las redes? tve

Los limpiadores

La Noche Temática inicia su emisión con el documental “Los limpiadores”, una producción de nacionalidad alemana y brasileña de 2018, de 88 minutos de duración, dirigido por Hans Block y Moritz Riesewieck y producido por gebruederbeetz Filmproduktion.

En la ciudad de Manila, en Filipinas, decenas de miles de jóvenes trabajan como moderadores de contenido, cuyo trabajo es eliminar el contenido “inapropiado” de la red. Ignoran o borran miles de imágenes y videos problemáticos.  Gente anónima subcontratada por Silicon Valley que está tomando decisiones que pueden afectar a las vidas y sistemas políticos en todo el mundo.

En la ciudad de Manila, en Filipinas, decenas de miles de jóvenes trabajan como moderadores de contenido, cuyo trabajo es eliminar el contenido ¿inapropiado¿ de la red. Ignoran o borran miles de imágenes y videos problemáticos.

En la ciudad de Manila, en Filipinas, decenas de miles de jóvenes trabajan como moderadores de contenido, cuyo trabajo es eliminar el contenido ¿inapropiado¿ de la red. Ignoran o borran miles de imágenes y videos problemáticos. tve

La foto icónica de la niña del napalm para un moderador de contenidos debe ser eliminada de la red: “Esta foto es un icono. Creo que es de la guerra de Vietnam. Pero, si nos atenemos a las normas de uso, como se ven genitales y una menor, hay que borrarla”. Para Nicole Wong, antigua diseñadora de política de Google y Twitter, las decisiones se deberían tomar en relación al contexto: “Si pensamos en estos empleados externalizados, a menudo se ven en la situación de supervisar contenidos de países en los que no han estado nunca. Desconocen el contexto histórico de lo que están viendo. Así que puede resultarles muy difícil decidir lo que hacer con según qué contenidos”.

Un moderador de contenidos debe visionar y clasificar hasta 25.000 imágenes y videos al día, a menudo perturbadores, lo que les provoca un impacto psicológico. “Por la naturaleza misma de este trabajo, no te puedes permitir cometer un solo error. Si cometes un error, le puedes destruir la vida a alguien, a muchas personas. Podrías desencadenar una guerra. Podrías fomentar el bullying. Podrías incitar a alguien a suicidarse”, cuenta una moderadora de contenidos bastante traumatizada por su trabajo.

¿Cómo hacer frente a las noticias falsas y la radicalización?

¿Cómo hacer frente a las noticias falsas y la radicalización? tve

El documental profundiza en la vida de cinco moderadores de contenidos, descubriendo las complejidades de sus vidas laborales a menudo traumáticas. Sin embargo debajo de ese trabajo se encuentran preguntas profundas sobre lo que hace que una imagen sea arte o propaganda y lo que define al periodismo.

Yaman Akdeniz, profesor turco y activista, describe el papel crucial de las redes sociales en un país con libertad de prensa limitada. David Kaye, Relator Especial de Naciones Unidas sobre Libertad de Expresión, se muestra preocupado: “Las compañías tienen un poder de decisión cada vez mayor sobre lo que está permitido publicar y lo que no. No sería de extrañar que, en un futuro, hubiera menos información disponible en Internet, o que fuera menos atrevida, menos provocadora. Y yo creo que eso nos convertiría en una sociedad más pobre”.

¿Dónde está exactamente el equilibrio entre lo que se debe publicar o borrar en las redes sociales? ¿Cómo hacer frente a las noticias falsas y la radicalización?

Mark Zuckerberg declara ante el senado de los Estados Unidos

Mark Zuckerberg declara ante el senado de los Estados Unidos tve

Facebook desde dentro

La Noche Temática continúa su emisión con el documental “Facebook desde dentro”, una producción de Reino Unido de 2018, de 47 minutos de duración, dirigido por Toby Paton, y producido por Firecrest Films.

Facebook tiene 1.400 millones de usuarios diarios, todos produciendo y compartiendo contenidos. La mayor parte son inofensivos, pero otra parte no lo es. ¿Cómo regulan los moderadores de contenido de Facebook el abuso de menores, la violencia explícita, el maltrato animal, las autolesiones o el discurso de odio? ¿Cómo decide la red social lo que podemos ver en su plataforma? ¿Antepone Facebook sus beneficios a la seguridad?

Cómo se toman esas decisiones ha sido siempre un misterio.

Últimos escandalos de Facebook

Últimos escandalos de Facebook tve

CPL Resources es una empresa de formación de moderadores de contenido con sede en Dublín que trabaja para Facebook desde 2010. En sus cursos de formación enseña a ignorar, borrar o marcar como desagradables los contenidos de la plataforma. Un moderador de CPL explica a un reportero que se hace pasar por empleado que “si empiezas a censurarlo todo, la gente pierde el interés en la plataforma. Y el objetivo final es ganar dinero.”

Richard Allan, vicepresidente de Política Global de Facebook, niega que el contenido impactante o extremo haga que Facebook gane más dinero: “El contenido impactante no nos hace ganar más dinero, esa opinión denota que no se entiende bien cómo funciona el sistema”. Sin embargo, Roger McNamee, uno de los primeros inversores y antiguo asesor en Facebook, afirma que mantiene el contenido extremo porque fomenta el compromiso con la plataforma: “Facebook se ha dado cuenta de que los usuarios radicales son los más valiosos, ya que una sola persona de un extremo u otro va a provocar la interacción de otras 50 o 100. Lo que les interesa es tener la mayor cantidad de contenido radical posible”.

'Like' es el símbolo de Facebook y su principal motivo de adhesión masiva

'Like' es el símbolo de Facebook y su principal motivo de adhesión masiva tve

El video de un hombre golpeando a un niño pequeño fue compartido más de 44.000 veces en Facebook en los días siguientes a su publicación. Este video fue marcado como desagradable en lugar de eliminarse, lo que significa que sigue publicado, pero está restringido a ciertos espectadores. Nicci Astin, activista contra el abuso de menores en internet, se ha quejado en repetidas ocasiones a Facebook sobre el video, pero le dijeron que no violaba los estándares comunitarios de Facebook.

Este documental se adentra entre los moderadores de contenidos de Facebook para descubrir cómo decide la red social lo que podemos ver en su plataforma.

Facebook tiene 1.400 millones de usuarios diarios, todos produciendo y compartiendo contenidos.

Facebook tiene 1.400 millones de usuarios diarios, todos produciendo y compartiendo contenidos. tve