Imágenes de mujeres reales a las que la Inteligencia Artificial desnuda o presenta como un objeto sexual han inundado las redes en las últimas semanas. Se crean con una herramienta de la red social X llamada Grok. El Gobierno español ha pedido a la Fiscalía que lo investigue por posible pornografía infantil. Lo mismo han hecho Francia o Australia.
Es tan fácil como coger la foto de cualquier persona y decirle a Grok que la ponga en bikini o en cualquier postura que el usuario pida. Muchos usuarios se quejan de que incluso genera imágenes sexualizadas con menores. El gobierno ha pedido a la fiscalía que lo investigue al considerarlo violencia sexual.
Según la experta en Inteligencia Artificial, Nuria Oliver, Grok "no hace todo lo que se le pide, tiene salvaguardas, pero mucho mas laxas que la mayoría de sistemas". Desde la empresa de Elon Musk, que también ha probado con su foto en plena polémica, asumen fallos y aseguran que están realizando mejoras para solucionarlo. La compañía tiene la responsabilidad de diseñar una buena tecnología y segura.
Imagen: GETTY