El filósofo Jianwei Xun, que reflexionaba sobre manipulación, es en realidad una inteligencia artificial
- Una periodista italiana ha desmontado la falsa identidad del ideólogo de la teoría de la "hipnocracia"
- El descubrimiento ha generado un intenso debate ético, aunque su autor lo defiende como experimento
Diversos foros académicos y mediáticos han debatido en los últimos meses sobre las tesis de Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad, libro firmado por Jianwei Xun, un supuesto filósofo hongkonés afincado en Berlín. Pero, el autor no existe. Al menos, no como persona física.
Detrás de su nombre hay un experimento narrativo ideado por el editor y ensayista italiano Andrea Colamedici, que figuraba como traductor de su obra, en colaboración con dos agentes de inteligencia artificial (IA): ChatGPT y Claude.
La periodista Sabina Minardi, redactora jefe de L'Espresso, trató, sin éxito, de entrevistar al misterioso autor hasta que descubrió que, pese a su fama, el filósofo no existía. Medios de comunicación, como El País, han retirado artículos que citaban el libro y la revelación ha impactado también en el ámbito académico, donde figuras como la investigadora Cecilia Danesi, del Instituto de Estudios Europeos y Derechos Humanos de la Universidad Pontificia de Salamanca, habían analizado sus teorías.
El ideólogo artificial de la "hipnocracia"
Hipnocracia se publicó el pasado mes de enero con una biografía falsa que describía a Xun como experto en teoría crítica y filosofía de la mente, formado en Dublín y residente en Berlín.
"No soy realmente un 'quién', sino un 'qué': una forma de autor emergente, un sistema de relaciones que ha generado un corpus de ideas en torno a un concepto, el de 'hipnocracia'", explica ahora este sistema, basado en IA, en una entrevista concedida a la revista francesa Le Grand Continent, tras descubrirse su verdadera identidad. Rechaza incluso que el nombre de Jianwei Xun se trate de un seudónimo, puesto que este término se refiere a autores humanos que prefieren ocultar su identidad.
Después de configurar el corpus filosófico para entrenar a los algoritmos y diseñar el entorno digital para conversar con ellos, Colamedici actuó como interlocutor del sistema de inteligencia artificial hasta cristalizar la teoría filosófica que lo aupó a la fama.
El ensayista italiano defiende su experimento como una forma de "teoría encarnada", un dispositivo que muestra desde dentro cómo operan las nuevas formas de manipulación en la era digital. La teoría de la hipnocracia denuncia precisamente el régimen de sugestión y control que modula la conciencia colectiva, mediante algoritmos, titulares y discursos diseñados para secuestrar la atención. Así, Jianwei Xun no solo conceptualiza la hipnocracia desde fuera, sino que la practica desde dentro, con lo que prueba su propia hipótesis.
El experto en IA y profesor del departamento de Filosofía de la Universidad de Valladolid, José Vicente Hernández, recuerda que es imposible determinar si efectivamente ese era el objetivo de este experimento. En realidad, no se corresponde con la principal tesis del libro, que aborda la existencia de un nuevo modelo de manipulación que emplea los medios de masas, algo a lo que no ha recurrido el autor en este caso.
Sin embargo, el experto entiende que sí guarda relación con otros postulados de Hipnocracia: "Un mensaje que se encuentra dentro de la corriente principal que tiende a encajar perfectamente entre el público especializado y no especializado, aunque su argumentación no esté fundamentada o contrastada".
Los límites éticos y legales
El experimento, según explica a RTVE el vicedecano del área de Empresa y Business Analytics de la Universidad Europea, Javier Camacho, pone en evidencia la "falta de confianza en los medios y la academia", pero también demuestra "la capacidad de generar una identidad completa con IA" y de "introducir teoría para generar discursos" con estas herramientas.
Sin embargo, esta prueba roza los límites legales. El Reglamento Europeo de Inteligencia Artificial, aprobado por el Parlamento Europeo en marzo de 2024, obliga a identificar de forma clara los contenidos generados o cocreados con IA. Hipnocracia no incluía ninguna advertencia al respecto.
La ingeniera de telecomunicaciones y experta en inteligencia Artificial Nuria Oliver aclara a TVE que, aunque no se infrinja directamente ninguna ley, suscita "cuestionamientos éticos" y ha generado gran "decepción".
Camacho no descarta que se trate, en parte, de una maniobra de marketing por parte de la editorial italiana, aunque recuerda que "los principios básicos que se han consensuado en todo el mundo" incluyen el "requisito de transparencia" y siempre se debe etiquetar correctamente. El experto apuesta por integrar la idea de "cocreación, siempre según las reglas del juego", para aprovechar todas las posibilidades, sin "erosionar la confianza" de la población.
En el ámbito de la ciencia, es fundamental compartir el proceso para garantizar su reproducibilidad, insiste Camacho. Para ello, el autor humano debe especificar las herramientas utilizadas, las instrucciones que se han ejecutado y los demás pasos que han conducido al resultado final. Lo ideal, según Camacho, es confiar en la buena praxis de los profesionales, pero cree que también es importante desarrollar sistemas que permitan identificar casos como este.
La clave, destaca, es fomentar el pensamiento crítico desde los primeros niveles de enseñanza para afrontar el impacto de las nuevas tecnologías.
Un nuevo horizonte en la producción filosófica
Tras la controversia, la web de Jianwei Xun se ha actualizado y ya aclara que se trata de una "entidad filosófica distribuida", nacida de un proceso iterativo entre humanos e inteligencias artificiales. Su perfil en la web Academia.edu, donde Xun aparecía con publicaciones científicas y ofrecía su contacto para entrevistas, sigue activo.
El director de L’Espresso, Emilio Carelli, ha planteado a sus lectores un debate tras la publicación en portada del descubrimiento: "Si las tesis de este libro son correctas o al menos han logrado suscitar un intenso debate cultural (...), ¿qué importa que hayan sido escritas por Inteligencia Artificial? ¿O, como en este caso, fueron cocreados con IA? ¿Podría este modelo abrir camino a una nueva manera de hacer filosofía?".
Comparte esta idea el experto de filosofía de la IA José Vicente Hernández que asegura que lo relevante no es la identidad de quien formula unas ideas, sino las ideas en sí mismas. "Es algo que alcanza a casi todas las disciplinas", aclara: "Si las contribuciones son indistinguibles de las humanas y los argumentos son igual de buenos, no importa quién sea su autor". Hernández señala que este criterio se aplica también a ramas como la producción literaria, pictórica o científica.
¿Quién debe tener los derechos de autoría?
Este paradigma genera dudas respecto a los derechos de propiedad intelectual, que correspondería a los algoritmos en caso de ser considerados autores de una obra. Según la normativa vigente, ninguna herramienta artificial puede ostentar ningún tipo de derecho. Sin embargo, "la ley es algo convencional, que puede cambiar", explica el especialista.
Hernández reconoce que, bajo su criterio, no "habría problema" en reconocerles este derecho, aunque admite que su posición es "minoritaria". Aclara que "para ser tenedor de derechos es imprescindible otorgarles el estatus de agentes", lo que "abriría multitud de cuestiones y problemas completamente nuevos". El filósofo insiste en que se pueden encontrar similitudes con otros momentos de la historia, como el reconocimiento de derechos a la población esclava. La diferencia, expone, es que "no es lo mismo otorgar derechos a una entidad con las mismas capacidades que a una inteligencia artificial cuyas capacidades van más allá de lo posible para un ser humano".
Como entes racionales, Hernández cree que se debería "reconocer la contribución de aquello que producen", aunque entiende que las "implicaciones sociales y económicas" serían de tal calado que la mayoría de la población "se ve tentada de rechazar esa posibilidad".