Enlaces accesibilidad

YouTube aplicará más tecnología y más manos para erradicar el contenido extremista y terrorista

  • Combinará el aprendizaje automático con políticas de regulación más duras
  • Apuesta por un mayor equipo humano y la redirección a contenidos no violentos
  • Medio centenar de ONG expertas se sumarán a las que revisan los contenidos

Por
Youtube y medidas de vigilancia
Google espera "entrenar nuevos 'clasificadores de contenido'" capaces de identificar vídeos de terroristas.

A raíz de los últimos ataques terroristas producidos en Europa, Google ha anunciado sus planes para implantar nuevas medidas que eviten la difusión de propaganda terrorista en YouTube, y contempla un aumento del personal en la revisión de los vídeos y también un endurecimiento de las políticas de regulación de los vídeos, en especial los de contenido religioso radical, así como la redirección a contenidos no violentos.

Así lo ha anunciado el consejero general de Google, Kent Walker, en un artículo publicado en el blog oficial de la multinacional tecnológica, aparecido anteriormente en el Financial Times como artículo de opinión. El directivo de la compañía de Mountain View expresó su intención de impedir que herramientas como YouTube se conviertan en refugio de propaganda extremista.

La primera medida de Google se centra en la aplicación de mecanismos de aprendizaje automático (machine learning) más avanzados, con los que la compañía espera "entrenar nuevos 'clasificadores de contenido'" capaces de identificar los vídeos de los terroristas, según explica Walker. Se trata de un plan similar al que ya anunció Facebook hace unos días por los mismos motivos.

El reto se encuentra, como explica el directivo, en distinguir los vídeos con contenido que hace apología del terrorismo, y es usado por los grupos terroristas como propaganda, de aquellos que son informativos. "Un vídeo de un ataque terrorista puede ser una retransmisión informativa si lo emite la BBC, o una glorificación de la violencia si es colgado en un contexto diferente por un usuario distinto", apunta Walker.

Más expertos humanos para identificar contenido violento

Junto con la aplicación de inteligencia artificial, Walker también ha anunciado la intención de Google de "aumentar el número de expertos independientes" en el programa de moderación de YouTube para los vídeos que han sido denunciados por parte de los usuarios.

Para la expansión del programa, Google añadirá 50 nuevas ONG a las 63 organizaciones que ya formaban parte del proyecto, además dotarlo de una mayor inversión.

"Las máquinas pueden ayudar a idenficar vídeos problemáticos, pero los expertos humanos todavía juegan un rol en decisiones matizadas sobre la línea que separa la propaganda y la religión violenta o el discurso de interés", matiza el directivo. Dedicarán una parte importante a identificar y frenar contenido enfocado a radicalizar y reclutar extremistas.

Moderación de vídeos ultarreligiosos o supremacistas

Google planea también llevar a cabo cambios en la política de condiciones de uso de YouTube. Estas medidas se dirigen concretamente a la moderación de los vídeos "que no violan claramente las condiciones" de la plataforma, como ha declarado Walker.

De esta manera, los vídeos que presenten "contenido religioso enardecedor o supremacista aparecerán en el futuro tras una advertencia y no serán monetizados, recomendados o elegibles para la aprobación de comentarios", según Walker.

Google aspira a "lograr el equilibrio entre la libertad de expresión y de acceso a la información sin promover puntos de vista extremadamente ofensivos".

Por último, la compañía también planea usar Jigsaw para implantar el "método de redirección", especialmente en Europa. Se trata de identificar a los potenciales reclutas de Estado Islámico y redirigir sus búsquedas hacia contenidos antiterroristas, para que puedan cambiar de idea.