Enlaces accesibilidad

Grok sexualizó tres millones de imágenes en once días, incluidas de menores

Grok produjo 3 millones de imágenes sexualizadas en X, según un análisis independiente
Pantallas con el logotipo de Grok y la imagen de su fundador, Elon Musk LIONEL BONAVENTURE / AFP / VerificaRTVE
Montserrat Rigall
VerificaRTVE
VerificaRTVE

Grok, la inteligencia artificial de la plataforma X de Elon Musk, creó y luego compartió públicamente al menos tres millones de imágenes sexualizadas. Así lo estiman dos análisis de datos realizados por el periódico The New York Times y el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en inglés). Tal y como revelan estos informes, desde finales de diciembre de 2025, los usuarios de la plataforma de redes sociales inundaron la cuenta del chatbot de X con solicitudes para alterar fotos reales de hombres, mujeres y niños para quitarles la ropa, ponerles bikinis y mostrarles en posiciones sexuales.

El Centro para Contrarrestar el Odio Digital (CCDH) es una organización no gubernamental sin ánimo de lucro de origen británico-estadounidense que se dedica a combatir el odio digital. En el análisis que ha presentado, calcula que Grok cosificó 23.000 representaciones de menores, a petición de los usuarios. El origen es una nueva función de edición de imágenes lanzada por esta herramienta en X y cuya popularidad "explotó el 29 de diciembre", explica el trabajo, una vez que el propietario de X, Elon Musk, anunciara que sería posible editar imágenes publicadas "con un solo clic". Resultado: unas 190 imágenes sexualizadas por minuto generadas en 11 días, entre el 29 de diciembre y el 8 de enero.

El CCDH seleccionó al azar 20.000 publicaciones con fotos generadas por Grok entre ambas fechas. Utilizó una herramienta de IA con un F1 (medida de fiabilidad del sistema) del 95% para identificar imágenes sexualizadas y revisar manualmente las de menores. De la muestra, el 65% eran sexualizadas, lo que equivaldría a 3 millones de imágenes, extrapolando los datos, y el 0,5% involucraban a niños, es decir, unas 23.338 del total.

Sexualización con foco en las mujeres: 1,8 millones de imágenes

El trabajo publicado por The New York Times muestra que la mayoría de las imágenes sexualizadas representan a mujeres, al estimar que ellas protagonizan al menos el 41% de las instantáneas analizadas (unos 1,8 millones en 9 días). El CCDH, detalla que algunas de las imágenes representaban a mujeres en bikinis transparentes, sanitarias con fluidos entre las piernas abiertas, o envueltas solo en hilo dental o cinta adhesiva transparente.

También detectaron contenidos de figuras públicas como las cantantes Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj: las actrices Christina Hendricks o Millie Bobby Brown, así como algunas políticas como la viceprimera ministra sueca Ebba Busch y la exvicepresidenta de EE.UU. Kamala Harris. Asimismo, observaron la difusión de selfies de mujeres jóvenes "antes de ir al colegio".

Implicaciones para menores y respuesta de X

El CCDH identificó un 0,5% de imágenes que afectaban a niños, de las 20.000 que tomó como muestra. Tras una revisión manual, fueron señaladas 101 como fotorrealistas y otras 43 no fotorrealistas, es decir, como dibujos o formas animadas. Extrapolando estas cifras al total, equivale a 23.338 imágenes sexualizadas fotorrealistas de niños y 9.936 no realistas. Todas se reportaron a la Internet Watch Foundation, una organización británica sin ánimo de lucro especializada en la detección y retirada de contenidos de abuso sexual infantil en internet.

Otra de las conclusiones de esta investigación es que el 29% de estas imágenes de menores seguían publicadas en X el 15 de enero. "Incluso en casos donde se eliminaron publicaciones, se podía acceder a las imágenes a través de URLs separadas, permitiendo a los investigadores evaluar el contenido que había sido eliminado de X", se explica en el estudio.

X restringió la edición a usuarios premium el 9 de enero y bloqueó "desnudos" de personas reales el 14, pero el daño persiste, con imágenes accesibles por URL. Como te hemos contado en RTVE Noticias, reguladores como la fiscalía de California y la UE investigan a Grok, ante el riesgo de explotación a escala industrial.

En VerificaRTVE te hemos contado que el Gobierno de España incluye los deepfakes en los delitos contra el honor y te hemos explicado cómo denunciar si tu imagen ha sido manipulada con inteligencia artificial. También hemos analizado la democratización de los asistentes de IA y su potencial para desinformar.