Enlaces accesibilidad

DeepSeek también censura y no es la única: los riesgos de la IA en la era del tecnofeudalismo

  • Los filtros para restringir respuestas son habituales en todos los modelos de lenguaje
  • La rapidez con la que avanza la IA obliga a plantear sus riesgos para la democracia

Por
DeepSeek censura y no es la única
Dos pantallas muestran los logos de DeepSeek y ChatGPT GETTY

"Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa" es una de las respuestas más comunes que devuelve el chatbot de inteligencia artificial (IA) DeepSeek, que ha puesto en jaque a sus competidores. El modelo de lenguaje evita responder a preguntas comprometidas y prácticamente cualquier cuestión relacionada con la política china.

Pero, ¿DeepSeek censura más que otras herramientas de IA? Para el Catedrático de Informática y miembro del Centro de Inteligencia Artificial de la Universidad de Valladolid (UVaIA) Valentín Cardeñoso, "todo depende de lo que entendamos por censura". Si a un amplio colectivo de personas no le parece mal que se limiten ciertos aspectos, se entenderá como un control positivo. Sin embargo, cuando se trata de un tema espinoso para una parte de la población, entonces se llamará censura, explica el experto.

DeepSeek, la aplicación de inteligencia artificial china que ha provocado revuelo en la bolsa

Si bien los distintos experimentos prueban que el modelo de DeepSeek restringe las respuestas sobre determinados temas, las acusaciones de censura a un competidor extranjero forman también parte del juego, según la consultora tecnológica especializada en Big Data e Inteligencia Artificial, Cristina Aranda. "¿Por qué TikTok es tan malo o tan bueno? Son ejercicios de estrategia diplomática. Esto se parece a lo que tanto hemos visto en las películas, los americanos son los buenos y los chinos son los malos", reflexiona.

¿Qué censura DeepSeek?

Las restricciones de DeepSeek están profundamente relacionadas con los temas políticos, algo que Cardeñoso considera "evidente por razones claras, dado que China cuenta con una fuerte política de protección y de ciberseguridad, también en temas de inteligencia artificial". En el caso de Estados Unidos, no existe una normativa equivalente, aunque se dan discusiones al respecto. Para la Unión Europea, las cuestiones relacionadas con la ética y el buen uso de una IA confiable son prioritarias y también han conducido a establecer ciertos límites a estos sistemas.

Al promocionarse como un sistema de código abierto, DeepSeek ha compartido amplia documentación sobre el diseño de sus modelos, pero no arroja detalles sobre los filtros censores que ha aplicado. Tras el lanzamiento de su última versión, la aplicación escaló hasta lo más alto de las listas de descargas. La curiosidad por este nuevo competidor ha llevado a muchas personas a ponerlo a prueba. De este modo, se han revelado sus restricciones a la hora de responder a preguntas relacionadas con los sucesos de Tiananmén o por qué al presidente chino le apodan Winnie The Poo, por ejemplo.

La tecnología tras los filtros censores

Un aspecto fundamental para el profesor de investigación emérito del CSIC y fundador del Instituto de Investigación en Inteligencia Artificial (IIIA), Ramón López de Mántaras, es que la población conozca que las herramientas de IA no entienden lo que se les pregunta, "no se da una comprensión profunda del lenguaje". Por tanto, los filtros que impiden que las respuestas se muestren tal y como las redacta el modelo están introducidos por humanos.

Cuando el modelo recibe un prompt o instrucción, busca y proporciona la respuesta a la consulta. Antes de transmitírsela al usuario, pasa por un sistema que evalúa si el resultado es adecuado o no. Esa es la censura más evidente, pero no la única, explica Cardeñoso. En un nivel más profundo, se encuentra la limitación en la educación del modelo, que ha recibido un entrenamiento controlado.

El proceso de aprendizaje de la herramienta puede estar sesgado, en función de los datos de los que se alimente. "Es algo muy difícil de saber. No conocemos el dataset con el que se ha entrenado porque no se especifica claramente en ninguno de los modelos, por muy abiertos que sean", aclara Cardeñoso.

Esquivar la censura en DeepSeek

Sobre el papel, si un usuario accede al código —que DeepSeek ofrece en abierto— y lo instala en local en su propio ordenador, dejaría de estar sujeto a las restricciones impuestas por la compañía, es decir, recibiría respuestas a temas delicados que no estarían disponibles si la misma pregunta se hiciera conectado a los servidores de la empresa. Sin embargo, esta posible limitación en el entrenamiento del modelo se traduce en respuestas condicionadas, también en esa versión local.

Cardeñoso explica que existen sistemas que permiten probar la tasa de censura que presentan los grandes modelos de lenguaje. Para ello, no se limitan a las respuestas que ofrecen a preguntas concretas, sino que evalúan toda una conversación. El experto lo asemeja a esos periodistas hábiles que logran plantear las preguntas adecuadas para conseguir respuestas que el entrevistado, en un inicio, no quería dar. "Se ha visto que, incluso si ejecutas el modelo en local, la respuesta no es tan abierta como te podría dar otra herramienta, eso puede tener que ver con su entrenamiento, pero es casi imposible de saber", explica Valentín.

Como reacción a la censura, algunos usuarios aplican técnicas de jailbreaking, una serie de estrategias diseñadas para esquivar las restricciones. "Por ejemplo, ChatGPT no te puede dar información sobre dónde comprar cocaína, pero ya se hizo el experimento de pedirle una lista de zonas a evitar para no toparse con vendedores de cocaína y ahí sí daba la respuesta", cuenta López de Mántaras. La clave está en la habilidad a la hora de redactar el prompt.

La era del tecnofeudalismo

La censura en las compañías tecnológicas no es una novedad, defiende Aranda, que recuerda que, desde hace años, Google impide publicar ciertos eventos LGBTI por considerar que tienen carácter pornográfico.

Pagamos diezmos con nuestros datos y vivimos esclavizados por la tiranía del algoritmo

En su libro Vidas Futuras, la autora señala que vivimos en un tecnofeudalismo: "Pagamos diezmos con nuestros datos y vivimos esclavizados por la tiranía del algoritmo". Por eso, defiende la necesidad de una regulación efectiva y mayor conciencia sobre la tecnología. "Por el camino, se nos está vendiendo que la IA es un muñeco diabólico que actúa solo, pero no. Son personas", explica.

En la actualidad, las batallas se practican en el ámbito tecnológico, defiende la experta, que recuerda el impacto de la compraventa de datos de Meta en el resultado del Brexit. Tras su victoria, Aranda señala que las búsquedas más repetidas, según Google Trends, giraban en torno a las implicaciones de abandonar la Unión Europea. "Claro que impacta en las democracias, por eso es tan relevante", asegura.

Avances a velocidad vertiginosa

Cardeñoso alerta de que varios expertos señalan que lo que los sistemas de IA son capaces de hacer en 2025 es bastante más de lo que los usuarios comunes, con acceso a las herramientas comerciales, pueden ver: "Esto va muy deprisa y las capacidades de estos sistemas van a crecer, para bien y para mal".

La Unión Europea, ante este potencial riesgo para los sistemas políticos y económicos, ha enfatizado la necesidad de control, pero el experto insiste en la dificultad de establecer una regulación efectiva en un escenario de globalización.

Entran en vigor las primeras restricciones de la ley de inteligencia artificial de la Unión Europea

Todos los modelos de IA se pueden manipular para influir, señala López de Mántaras: "Aunque su entrenamiento no esté hecho con esa finalidad, se puede afinar con intenciones maliciosas de desinformación, por ejemplo". Sin embargo, el experto cree que esta opción es muy poco eficiente en comparación el impacto de utilizar bots en redes sociales, "llegan a más gente y logran polarizar y distorsionar la realidad".

Cardeñoso no cree que sea sencillo que un poderoso controle por completo las respuestas de las herramientas de IA para desestabilizar las democracias: "Del mismo modo que es extremadamente complicado lograr que un modelo no diga ciertas cosas, también lo es conseguir que responda exactamente lo que uno quiere".

Sin embargo, el experto apunta que "construir un cerebro electrónico es algo que ya no está tan lejos, a nivel físico".

Construir un cerebro electrónico es algo que ya no está tan lejos

Ya existen modelos de inteligencia artificial que rondan el billón de parámetros, algo similar a nuestras conexiones neuronales, mientras que el cerebro humano se entiende que cuenta con 100 billones.

"En poco más de dos años y medio, se ha avanzado muchísimo. A lo mejor antes de una década ya estamos ante sistemas más potentes que nuestro cerebro", advierte. Para hacer frente a los riesgos que estos avances pueden plantear, señala que convendría prestar atención no solo a la capacidad de cada sistema, sino "a otras cuestiones, como la socialización de lo que sería este ecosistema en la sociedad".