La tortura del 'deepfake': cuando la IA se utiliza para destruir la reputación, sobre todo, de las mujeres
- El Consejo de Ministros ha aprobado un anteproyecto de ley para incluir esta práctica entre los delitos contra el honor
- Cómo la inteligencia artificial amplifica el acoso y la desinformación, con relativa desprotección al respecto
Un caso de esta misma semana. Una joven de 17 años tiene contacto con un chico, con el que se ha visto físicamente dos veces. Al final, la adolescente decide no querer continuar y él lo acepta bien, de primeras. Pero desde hace un mes empieza a publicar deepfakes sobre ella a través de perfiles falsos. Anuncios de prostituta, que hace películas porno o que es ninfómana. Y se lo dice y se lo envía también a los contactos de Instagram de ella. “Esta persona recurre a nosotros después de haber ido a la Policía local de su ciudad y que no le hicieran ni puñetero caso”, cuenta Encarni Iglesias Pereira, presidenta de la Asociación STOP Violencia de Género Digital.
Por hechos como este, el Consejo de Ministros ha aprobado este martes un anteproyecto de ley para incluir los deepfakes entre los delitos contra el honor. ¿Pero qué son? Se trata de vídeos manipulados con inteligencia artificial que simulan acciones o declaraciones que nunca ocurrieron, afectando tanto a personas anónimas como públicas. La ley busca frenar su uso cada vez más frecuente en redes, considerándola una intromisión en el derecho al honor, con excepciones, eso sí, para campos creativos, satíricos, artísticos o de ficción.
El caso inicial continúa, y tiene este tipo de heridas psicológicas: “No conforme con esto ha creado publicaciones con mi teléfono en paginas de contactos con fotos mías, y durante un tiempo esto me ha llevado a querer terminar con mi vida, no quiero salir a la calle, creo que todo el mundo me mira y conoce todos estos detalles y la Policía no puede hacer mucho, porque me siguen llamando preguntando cuánto cobro. Estoy pasando mucha vergüenza, y tengo mucha impotencia, yo no hice nada malo”, nos relatan desde la Asociación STOP el testimonio que dio esta joven víctima de acoso a través del deepfake.
Y no hay que olvidar el tristemente célebre caso del colegio de Almendralejo, en donde 15 menores de edad fueron responsables, según el Juzgado de Menores de Badajoz, de 20 delitos de pornografía infantil y contra la integridad moral por manipular imágenes de 20 niñas con IA, a las que mostraron desnudas. Una práctica que no es exótica, nada desconocida en los mismos colegios. Como una venganza de una niña contra un niño de su escuela que le ha dicho algo horrible, y se la devuelve con un montaje de él tocándose con otro compañero. Cualquiera puede hacerlo. Hasta un crío.
Denuncia a Grok
En esta línea, la ministra de Juventud e Infancia, Sira Rego, remitió la semana pasada un escrito a la Fiscalía General del Estado para solicitar que investigue a Grok, la IA de X (antes Twitter) por presuntos delitos de difusión de material de violencia sexual contra la infancia. Y Francia, un poco antes, generalizó a todas las edades la denuncia ante la Justicia por creación de “contenidos de carácter sexista y sexual manifiestamente ilegal” que últimamente se podía ver masivamente en la red social de Elon Musk, y que impulsó que este modificara a que solo los suscritos puedan retocar imágenes, bajo su responsabilidad, del contenido que generen.
Y, aunque por supuesto no se salva nadie, la mayoría de los casos más ofensivos y vejatorios suelen ser contenidos pornográficos contra las mujeres. Según el estudio State of deepfakes 2023, que ya explicaba la tendencia al alza de los montajes sexuales, la empresa de ciberseguridad Home Security Heroes dejaba claro que “las mujeres son víctimas del 99% de los deepfakes pornográficos”.
Lo corroboran desde la Asociación STOP. “Sí, vienen con contenido pornográfico en la mayoría de las ocasiones, sobre todo en violencia de género. Se da mucho que una vez que se ha roto la relación o para dañar a la otra persona, se crean vídeos o publicaciones falsas, o que se han hecho en una intimidad, y se comparten públicamente con mensajes adulterados o ridiculizando para hacer daño”.
La especialista añade tres patas más. La difusión, la responsabilidad de las corporaciones y la poca dureza de las penas. “Los deepfakes son uno de los mayores motivos por las que recurren a nuestra organización. Y cualquier víctima ve cómo se difunde masiva y rápidamente. Con esta ley creemos que puede mejorar la situación, pero hay que endurecer las penas todavía mucho más, porque a ver cómo cuantificas el daño que le causas a una víctima cuya publicación, por ejemplo, han visto un millón de personas. Y quien primero gana es la plataforma. Cuanto más morbo tengan las publicaciones, más visibilización va a generar y por tanto más dinero para ellos, y les da igual los daños psicológicos que puedan causar”.
Otros usos y costumbres del deepfake: la estafa
Por supuesto, los personajes populares están más que expuestos a esta falsificación de la identidad. ¿Se acuerdan de la 'resurrección' de Lola Flores para el anuncio de una conocida marca de cerveza a través de deepfake? Eso sería un ejemplo de un uso creativo, pero la lista de famosos víctimas directas del su mala praxis es kilométrica tanto en uso erótico o como cebo para vender productos: Rosalía, la princesa Leonor, Scarlett Johansson, Messi, Zelenski, Alexandria Ocasio-Cortez, los presentadores de MasterChef y un larguísimo etcétera de celebridades han sido suplantados.
La presentadora del Canal 24 Horas de RTVE, Marina Ribel, se ha visto envuelta en este tipo de usurpación digital para anunciar una plataforma de inversión, por ejemplo. "Me ha pasado varias veces y me he enterado porque gente de mi entorno, o que tengo en redes sociales, me ha avisado. A mí misma nunca me ha aparecido mi deepfake. Me ha ocurrido con negocios, promociones, anuncios y no es lo más ético del mundo. Me acuerdo de un caso con promociones de criptomonedas o promociones de bancos raras, cosas cuestionables. Nunca me han hecho un deepfake para animar a la repoblación del Amazonas", ironiza.
¿Y qué ha hecho? "Lo suelo poner en conocimiento del equipo de Verifica y ellos se encargan de denunciarlo. Al principio los deepfakes eran muy toscos, muy evidentes, pero me he dado cuenta con un caso más reciente que, o me conoces mucho, o ya resulta prácticamente imperceptible".
Y, efectivamente, hay casos burdos que se ven a la legua. Pero aquí también entramos en un último terreno, aún no todavía completamente asentado, pero inquietante, de no distinguir la verdad de la mentira, si lo que vemos es un montaje o es real.
De hecho, hace unos años, se hizo viral un vídeo fake de la Reina de Inglaterra creado por Channel 4 precisamente para alertar sobre la proliferación de información errónea y noticias falsas en la era digital. Y la tecnología, como señala Ribel, no para de avanzar y democratizarse.
Sin olvidar, de nuevo, que las consecuencias de este uso para hostigar a veces pueden ser máximas. Con víctimas que no pueden ni quieren recordar estos sucesos cuando son de contenido sexual. “Todo depende de cómo sea el estado anímico cuando le llega a la persona. Y en ocasiones las repercusiones pueden ser muy graves porque hay personas muy vulnerables que les puede llevar incluso al suicidio. Hemos conocido casos”, refiere Iglesias.
Tampoco está de más describir, a través de la presidenta de Asociación STOP, la travesía por el desierto que experimentó la víctima inicial del artículo. “Acudió a la Policía Local, donde no le atendieron y fue derivada al departamento de violencia de género. Al no haber relación de pareja, le indicaron que no era violencia de género y que regresara a la Policía Local. Entonces la chica dijo que le daba vergüenza y no iba a ningún sitio más. Su madre nos contactó para, por favor, intentar convencerla, ya que la violencia digital genera mucha vergüenza y provoca que no se denuncie. Pero tenemos que seguir concienciando. Es muy importante que se denuncie la violencia digital para poder acabar con ella”.