Enlaces accesibilidad

La Unión Europea aprueba una enmienda para prohibir los 'deepfakes' sexuales que desnuden con IA a personas reales

  • Los 27 países de la UE aceleran el veto a estos contenidos tras la polémica de las imágenes sexuales generadas por Grok
  • Las víctimas son mujeres en el 99% de los casos y pueden sufrir ansiedad, culpa y una sensación de falta de control
El Gobierno francés denuncia a Grok, la IA de X, ante la Justicia por generar contenidos sexistas
Ilustración que muestra a un individuo sosteniendo un teléfono móvil con el logo de Grok al fondo. SOPA Images

Los 27 países de la Unión Europea (UE) han aprobado una enmienda para prohibir los servicios de inteligencia artificial que generen imágenes sexuales o desnuden fotografías de personas reales. Por el momento, esta es únicamente la posición de los Gobiernos, que deberán consensuarla con el Parlamento Europeo.

Esta medida llega tras la polémica generada por la herramienta Grok, que permitió a sus usuarios generar millones de imágenes de este tipo en apenas unos días. La red social desarrollada por X anunció posteriormente medidas para restringir esta actividad, y la Comisión Europea mantiene abierta una investigación al respecto. Sin embargo, los legisladores podrían ahora ir más allá.

En concreto, el texto pactado este viernes, y que es una propuesta española, propone prohibir dos sistemas de IA en la UE. Por un lado, aquellos capaces de generar, manipular o reproducir imágenes, vídeos o audios realistas (deepfakes) de partes íntimas o que identifiquen personas en actividades sexuales sin consentimiento expreso del afectado. Por otro, aquellos capaces de generar, manipular o reproducir pornografía infantil.

Las tecnologías que permiten crear este tipo de contenidos tienen un acceso sencillo, según varios jóvenes que admitieron haber creado deepfakes de desnudos en una encuesta realizada por Thorn. El 70% de los entrevistados señaló que usó una aplicación que descargó directamente en la tienda oficial de su dispositivo (App Store o Play Store). Además, un 30% indicó que no necesitó descargar nada porque utilizó herramientas accesibles directamente en línea.

Las mujeres, las más afectadas

Las mujeres constituyen el 99 % de las víctimas de pornografía deepfake. Así lo concluye una investigación de Security Hero, que analizó 95,820 vídeos de este tipo, 85 canales dedicados en plataformas en línea y más de 100 sitios web vinculados al ecosistema deepfake. De hecho, muchas de estas herramientas han sido desarrolladas por equipos masculinos ni siquiera están diseñadas para funcionar con imágenes del cuerpo de un hombre, según precisa ONU Mujeres.

Este tipo de contenido puede crearse con un objetivo sexual y difundirse posteriormente en redes sociales o en sitios web pornográficos con el objetivo de acosar a las víctimas o cometer sextorsión (un chantaje realizado a partir de la posesión por parte del chantajista de una imagen íntima), como explica el FBI.

Varias investigaciones concluyen que la difusión de deepfakes sexuales puede provocar ansiedad, culpa, depresiónvergüenza y una sensación de pérdida de control.