La inteligencia artificial quiere acabar con el anonimato digital
- Los modelos de lenguaje de IA son capaces de desvelar quién está detrás de un pseudónimo
- Datos dispersos como el código postal o la fecha de nacimiento pueden identificar a usuarios en la red
El anonimato ha sido una de las grandes ventajas desde el nacimiento de internet. Nos brinda, si queremos, la posibilidad de participar u opinar sin la necesidad desvelar realmente quiénes somos, ocultándonos en perfiles como @sabelotodo47. La red es un reguero de pistas dispersas, aparentemente sin importancia y difícilmente correlacionables, pero no imposibles de conectar. Los avances en inteligencia artificial han acelerado el proceso de identificar a personas a partir de datos anónimos.
Cuando se habla de privacidad digital, solemos pensar en contraseñas expuestas, bases de datos pirateadas, filtraciones, información sensible en manos equivocadas. La desanonimización va por otro lado, pero también puede ser dañina. Se denominan datos anonimizados aquellos de carácter legal o público, o paquetes de información que carecen de identificación clave -como nombres o correos electrónicos- y que podrían ser un simple código postal, una fecha de nacimiento aislada o un comentario sobre la foto de un familiar. El problema es que este tipo de datos dejan un rastro que hace posible reconstruir la identidad de la persona a la que pertenecen.
Usuaria introduciendo un código de verificiación en un portátil Getty Images
Un contrato llamado anonimato digital
Subimos una foto de un plato en un restaurante. Valoramos una serie en una plataforma. Opinamos bajo pseudónimo en una red social. Tres acciones muy dispares entre sí que, en teoría, no servirían para identificarnos, pero que en la práctica podría ser más que suficiente para saber quién está tras esos comentarios.
El anonimato digital se basa en una idea sencilla, podemos usar internet y dejar datos sin que estos estén asociados directamente a nuestra identidad. Información anónima que registran las tecnológicas para conocer nuestros hábitos y pulir los algoritmos. Una especie de contrato que beneficia a ambas partes, pero con más puntos débiles de los que imaginamos. Y no por un fallo o una brecha de seguridad
“La anonimización de datos es prácticamente imposible, es una quimera”, así de tajante es la investigadora Carmela Troncoso, directora científica en el Instituto Max Planck para la seguridad y privacidad, que atiende a RTVE Noticias por videollamada. No se trata de una opinión aislada, sino de una conclusión que desde hace años se repite en los círculos académicos. Según varios estudios, el problema está en la propia naturaleza de los datos. Y como ejemplo, Carmela apunta a las investigaciones de Latanya Sweeney, especializada en privacidad de datos, y que ha demostrado en varias ocasiones que la información anónima publicada de hospitales en Estados Unidos se puede correlacionar con las noticias de accidentes, y de ahí identificar a personas con nombres y apellidos.
Usuaria introduciendo un código de verificiación en un portátil Getty Images
Los datos trazan recorridos hasta los usuarios
La cuestión que se plantea es que ya no hace falta sustraer datos sensibles como el DNI, el número de la seguridad social o la cuenta bancaria. Es información más trivial, pistas que vamos dejando en internet desde que nos levantamos hasta que termina el día. Por ejemplo, datos aparentemente inofensivos como dónde vivimos, dónde trabajamos, el camino de la vivienda al supermercado que registra Google Maps, o qué hacemos cada mañana. Por separado, no significan nada ni identifican a nadie. Si se combinan puede que sí. “Habrá mucha gente que viva en tu edificio, mucha gente que trabaje en tu empresa o que lleve a sus hijos a la misma guardería. Pero nadie que haga exactamente las tres cosas”, explica Troncoso.
Nuestra huella digital funciona como las migas de pan de Hansel y Gretel: pequeños fragmentos que vamos dejando por el camino sin pensar demasiado en ellos, pero que, en conjunto, trazan un recorrido completo hasta nosotros. Ese tipo de combinaciones se conocen como cuasi identificadores, fragmentos de información que, al cruzarse, acaban señalando a una persona concreta. Y hoy en día abundan en el mundo digital.
Un ejemplo clásico es el llamado caso Netflix. La plataforma publicó hace años un conjunto de datos supuestamente anónimos con valoraciones de películas para mejorar sus algoritmos. No había nombres, solo identificadores numéricos. Sin embargo, varios investigadores lograron cruzar esos datos con valoraciones públicas en otras webs de cine como IMDb o Rotten Tomatoes. De esta manera, identificaron a usuarios concretos y, en algunos casos, inferir información sensible sobre sus gustos personales. Esto desembocó en denuncias de usuarios.
Quiénes somos a partir de qué publicamos
Cuando se habla de riesgos digitales, se tiende a pensar en brechas de seguridad o robos de datos. Pero la desanonimización funciona de otra manera.
“No hablamos de que te roben los datos, sino de que puedan inferir quién eres a partir de lo que ya has hecho público”, explica el experto en ciberseguridad de Check Point, Rafael López. Pone como ejemplo algo muy cotidiano: una foto aparentemente inocente. “Si subes una imagen de una montaña o de un plato de comida, se puede identificar el lugar. Si eso se cruza con otras publicaciones, se van uniendo puntos hasta llegar a la persona”, señala López. El proceso se llama correlación, conectar datos dispersos hasta construir un perfil completo.
La huella digital que dejamos es enorme. No solo en redes sociales, sino también en comentarios, búsquedas, plataformas de entretenimiento o incluso interacciones con inteligencia artificial.
Una persona mirando una pantalla con código binario Getty Images
La inteligencia artificial redefine el concepto de anonimato digital
Se ha pasado de intentar descifrar lo oculto a interpretar lo visible, algo que haría las delicias del mismísimo Sherlock Holmes y sus dotes detectivescas. Hasta ahora este tipo de análisis requería tiempo, recursos y cierta especialización. Lo que cambia con la inteligencia artificial no es la posibilidad de hacerlo, sino la escala, se vuelve masivo.
Un estudio, publicado en 2026, demuestra que los modelos de lenguaje pueden desanonimizar usuarios a gran escala a partir de su actividad online. El sistema analiza textos publicados bajo pseudónimo, extrae pistas —lugares, intereses, trayectorias—, busca coincidencias en internet y evalúa qué perfiles encajan mejor.
En sus experimentos, los investigadores lograron vincular cuentas de foros como Hacker News con perfiles reales de LinkedIn con niveles de precisión muy elevados. Lo que antes requería horas de investigación manual puede ahora automatizarse. Y el margen de acierto es muy alto, “se ha conseguido entre el 80 y el 90% de precisión utilizando inteligencia artificial conversacional como ChatGPT o Gemini analizando cómo escribe una persona y su gramática”, comenta el experto de Check Point.
Hasta ahora, la creencia generalizada (e ingenúa) era que el anonimato se apoyaba en una idea práctica: aunque los datos estuvieran ahí, nadie iba a conectarlos. Para María Arias Pou, especialista en privacidad de la Asociación Española de Privacidad y de Inteligencia Artificial (APEPIA), “medios que antes utilizábamos para crear datos anónimos, puede que ya no sirvan o haya que aplicar otras medidas que reduzcan el riesgo que conlleva la evolución de la IA y su capacidad de desanonimizar”,
Como explica la investigadora Carmela Troncoso, estas herramientas son especialmente eficaces encontrando esos pequeños indicios que antes pasaban desapercibidos. No buscan un dato concreto, sino patrones, conexiones entre fragmentos de información que, combinados, son capaces de reconstruir una identidad incluso a partir de texto no estructurado.
Dos caras de la misma moneda
A primera vista, todo esto podría parecer una buena noticia. Si es más fácil identificar a alguien, también debería serlo a la hora de perseguir delitos como el acoso en redes sociales o las campañas de odio coordinadas. Las fuerzas de seguridad son expertas en utilizar técnicas sofisticadas para rastrear a quienes cometen delitos en internet. Con las posibilidades que brinda la IA y los modelos de lenguaje, los métodos se simplifican y están al alcance de todos, “se llama la democratización de poder conseguir la información. Yo tengo un modelo de lenguaje y, si soy hábil con el prompt, con la instrucción que le doy al ChatGPT de turno, voy a poder conseguir muchos datos”, asegura Rafael López. Y continúa, “si puedes saber quién hay detrás de un perfil, puedes hacer ingeniería social muy precisa, incluso chantaje”, y llegar a conocer la ideología, entornos sociales, hábitos y puntos débiles.
En contextos más extremos, como en países autoritarios, el riesgo es aún mayor. La desanonimización masiva abre la puerta a formas de vigilancia que afectan directamente a la libertad de expresión. Si cualquier comentario puede vincularse a una identidad real, es probable que muchas personas opten por no opinar.
Además, como señala Troncoso, hay un efecto paradójico: quienes realmente quieren ocultarse —por ejemplo, de actividades delictivas— suelen ser los que mejor separan sus identidades. El impacto recae, mayormente, en el usuario medio.
Gente que pasea de un lado.a otro Philippe LEJEANVRE Philippe LeJeanvre/Getty Images
La legislación intenta ponerse al día
Desde el punto de vista legal, el concepto de anonimato es más rígido de lo que parece. En Europa, el Reglamento General de Protección de Datos establece que un dato anonimizado es aquel que no puede asociarse de nuevo a una persona. Es decir, la anonimización debería ser irreversible. El problema es que la realidad tecnológica cuestiona esa premisa.
“Lo que hoy consideramos anónimo puede dejar de serlo con nuevas herramientas”, explica la abogada María Arias Pou. La evolución de la inteligencia artificial obliga a replantear conceptos que hasta ahora parecían claros.
En España aún no abundan los ejemplos públicos de desanonimización como los documentados en Estados Unidos. No porque el fenómeno no se esté dando, sino porque el propio marco legal europeo limita su exposición. Como explica Pou, lo que hoy entendemos como anonimización puede dejar de serlo a medida que evolucionan las tecnologías capaces de tratar y cruzar información, como es el caso de los modelos de lenguaje de IA. Organismos como la Agencia Española de Protección de Datos advierten que eliminar nombres no basta, porque el riesgo está en la capacidad de cruzar datos de fuentes muy diversas a los ojos de todos.
Conservar el valor del dato o eliminarlo
Se trata de un problema con difícil solución. Para que los datos sean útiles —en investigación, desarrollo de productos o servicios personalizados, por ejemplo— necesitan conservar información relevante. Cuanta más información, más valor. Y esa riqueza de datos es la que facilita la desanonimización. “Si quieres garantizar completamente la privacidad, tienes que eliminar tanta información que los datos dejan de ser útiles”, resume Troncoso.
Ante este panorama, la tentación es pensar que todo está fuera de control. Pero no es exactamente así. Una parte importante del problema tiene que ver lo que compartimos sin ser plenamente conscientes. “El primer círculo de protección de la privacidad somos nosotros mismos”, recuerda María Arias Pou.
“Nos vamos a tener que adaptar sí o sí. Lo que hay que hacer es estar preparado, tener formación y concienciarse de que esto es real, que está aquí y que va a más”, nos dice Rafael López para quién esto no debe implicar dejar de usar tecnología ni retirarse de internet. Debemos entender mejor qué datos generamos, cómo se combinan y qué pueden revelar en conjunto. El cambio de paradigma ya está en marcha. El anonimato, tal y como lo entendíamos, está tocado. Cuánto más rastro digital dejemos atrás, más fácil será que alguien o que una IA destape quiénes y cómo somos. Adiós a @pepito1972, @jesus24inviernos o @code_girl8 para intentar ocultar nuestra identidad.