Enlaces accesibilidad

¿Qué dicen los expertos sobre la prohibición de la UE a los 'deepfakes' sexuales con IA?

'Deepfakes’ sexuales con IA: la prohibición de la UE, a debate
Ciudadano usando plataformas de IA en su ordenador. Getty/VerificaRTVE

Bruselas ha dado luz verde a una medida pionera dentro del nuevo marco legal sobre inteligencia artificial: vetar el uso de la IA para desnudar a personas sin su consentimiento. Se trata de una iniciativa del Gobierno de España que el Consejo Europeo ha aprobado, pero aún debe debatirse en la Eurocámara. La medida busca frenar usos ilícitos y vejatorios de esta tecnología, especialmente los destinados a generar imágenes falsas de carácter sexual

El acuerdo incluye sanciones para plataformas que difundan o comercialicen contenidos creados por “IA que desnuda” sin el consentimiento de las personas afectadas. Los expertos consultados por VerificaRTVE aseguran que esta regulación alinea la legislación con su objetivo principal: garantizar que la IA no vulnere derechos fundamentales, especialmente en casos de abuso sexual digital. Sin embargo, critican que esta reforma llega tarde y que tiene límites técnicos.  

La enmienda parte de una iniciativa del Gobierno de España 

El texto pactado este viernes es una iniciativa española y propone prohibir aquellos sistemas de IA que sean capaces de generar, manipular o reproducir imágenes, vídeos o audios realistas (deepfakes) de partes íntimas o que identifiquen personas en actividades sexuales sin consentimiento. También se prohíbe la IA para generar “material de abuso sexual de menores”.  

La norma forma parte del nuevo reglamento sobre IA, un texto que busca garantizar un uso ético y transparente de estas tecnologías dentro del bloque comunitario. Establece cuatro niveles de riesgo, con normas diferentes para cada uno de ellos.  

Los expertos ven lógico que se regule la IA porque afecta a “derechos fundamentales” 

Los expertos consultados por VerificaRTVE advierten de que las posibles prohibiciones sobre el uso de esta tecnología tienen un alcance limitado desde el punto de vista técnico. En este sentido, subrayan la dificultad de la regulación. Por un lado, consideran imprescindible que los legisladores comprendan en profundidad el estado actual de la tecnología, sus capacidades y limitaciones y, por otro, señalan un desajuste: “El proceso legislativo es demasiado lento frente a la velocidad de desarrollo de esta tecnología” 

La abogada Vanesa Alarcón, de AGM Abogados, defiende la inclusión de deepfakes sexuales no consentidos entre los sistemas de IA prohibidos por el Reglamento de la UE ya que esta ampliación responde a “la grave afectación de derechos fundamentales” que generan estas tecnologías. “Se está afectando de forma muy grave a una parte clave de la población y a sus derechos fundamentales vinculados al honor, imagen e incluso honra o reputación frente a terceros”, asegura. 

Respecto a la protección de datos y daños reales, Alarcón advierte de que “en función de cómo sean estos deepfakes pueden causar mucho daño a las personas afectadas. No se puede obviar que la imagen también es un dato de carácter personal, protegido por el Reglamento General de Protección de Datos (RGPD)”. Si hay una afectación grave por el uso de esa IA, añadiendo un componente sexual o que afecte a la intimidad de la persona, es “totalmente lógico que la normativa de IA vaya en consonancia”

 Los límites técnicos de esta prohibición 

Josep Mencion, ingeniero en telecomunicaciones, subraya que el principal problema es que la tecnología necesaria para generar estos contenidos “ya está ampliamente distribuida y es relativamente accesible”. Existen modelos de código abierto, herramientas de difusión y paquetes preentrenados que permiten a usuarios con conocimientos medios crear deepfakes sexuales sin depender de plataformas centralizadas.  

“Cualquier regulación tiene un límite: pueden controlar a las empresas que desarrollan o comercializan estos modelos, pero no lo que una persona pueda hacer por su cuenta con un sistema descargado en su ordenador”, añade. Por ello, considera que las medidas regulatorias funcionan sobre todo como “mecanismo de disuasión y de responsabilidad legal”, y sirven para evitar que empresas se lucren con estas prácticas, pero “no son una solución técnica que impida el problema”

La prohibición “llega tarde”, según algunos expertos 

Para el compositor y dramaturgo Pere Pèries, especializado en nuevas tecnologías, la medida “como siempre, llega tarde”. En su opinión, los desarrolladores priorizan la rapidez en el lanzamiento de nuevos modelos sin tener suficientemente en cuenta los posibles usos indebidos, o bien eluden responsabilidades cuando estos se producen. 

Pèries recuerda una idea ya apuntada por el escritor Isaac Asimov: la capacidad tecnológica avanza más rápido que la capacidad social para aprender a utilizarla correctamente. En este sentido, considera que la inteligencia artificial actúa como “un espejo que nos devuelve la imagen de la sociedad”, una imagen que puede resultar incómoda. Ante este escenario, plantea un debate de fondo: “¿Debemos cambiar el espejo, regularlo o replantearnos como sociedad y autorregularnos?”. A su juicio, la IA ha dejado de ser un asunto exclusivamente técnico —propio de ingenieros— para convertirse en una cuestión que interpela directamente a filósofos y sociólogos. “Quizá ya es hora de que alguien responda”, apunta. 

Todos los expertos consultados coinciden en que este tipo de normas pueden tener efectos relevantes ya que permiten que haya consecuencias claras para quien lo haga, ya sea por difusión, extorsión o daño a la reputación. 

Grok generó la alarma 

La decisión llega tras el aumento de casos en los últimos meses en varios países europeos, donde se detectaron modelos como Grok, desarrollada por X, que usaban aplicaciones de generación de imágenes para producir material sexual falso a partir de fotografías reales, muchas de ellas de mujeres y menores.  

La Comisión Europea ha señalado que el desarrollo de la IA debe respetar los derechos fundamentales y ha recordado que los Estados miembros deberán implementar mecanismos de denuncia y sanción eficaces. Las empresas tecnológicas que incumplan la norma podrán enfrentarse a multas proporcionales a su facturación.  La legislación aún está pendiente de su aprobación definitiva por el Parlamento Europeo, pero la intención del ejecutivo comunitario es que entre en vigor a finales de 2026.