Enlaces accesibilidad

La democratización de los asistentes de IA y su potencial para desinformar: las claves en 2025

Las claves del impacto de la inteligencia artificial en 2025
Bloques de madera con iconos para IA, hecho y falsedad VerificaRTVE / Getty

2025 quedará como el año en que la revista Time eligió a los arquitectos de la IA como Persona del Año. En estos 12 meses, hemos visto cómo jóvenes y mayores han dejado de preguntar a Google para confiar en los asistentes de inteligencia artificial. También hemos asistido a un hiperrealismo (aún) mayor de los contenidos creados con esta tecnología y de su uso por parte de medios de comunicación para ilustrar noticias. 2025 será el año en que vimos a Donald Trump utilizar indiscriminadamente la IA para mostrarnos su plan para Gaza convirtiéndola en resort turístico. Este año todos, y no solo los verificadores, hemos sido conscientes del potencial de la inteligencia artificial para desinformar. En VerificaRTVE analizamos con la ayuda de tres expertas cómo nos ha impactado la IA en 2025 y reflexionamos con ellas sobre lo que podemos esperar de esta tecnología en el futuro.

No estábamos preparados para la democratización de los asistentes de IA

"Hay estudios que indican que casi la mitad de la población de distintas edades está usando la IA para hacer consultas de todo tipo: personales, educativas, sociales y hasta psicológicas", afirma Pilar Sánchez-García, periodista y profesora de la Universidad de Valladolid. Lucía Ortiz de Zárate Alcaraz, profesora de Filosofía Moral en la Universidad Autónoma de Madrid, detalla que "la utilizamos para consultarle dudas sentimentales, cuestiones psicológicas, problemas de trabajo para hacer la lista de la compra, para charlar...". Aunque las especialistas consultadas entienden las ventajas de aprender a utilizar asistentes de IA, coinciden en que un mal uso puede ser peligroso.

Carmela Ríos, periodista y profesora experta en redes sociales y desinformación, sostiene que "la IA nos coloca ante situaciones y realidades que todavía no estamos preparados ni para analizar, ni para legislar, ni para encajar en nuestros modelos periodísticos o de comunicación política." Asegura que se trata de una tecnología "muy disruptiva, que se nos presenta de una forma muy apetitosa y sugerente, y que impacta en nuestra vida y nos pilla sin formación". Coincide con ella Pilar Sánchez-García: "La IA se está probando, está iniciándose, esto está permitiendo que la ciudadanía la pruebe y conozca su usabilidad y la facilidad de obtener información y vea también sus limitaciones". Para ella, el principal inconveniente es que la usamos "de una manera poco crítica, la asumimos con conformismo" y alerta del peligro de "aceptar lo que te llega porque el contenido es excesivo, no te da tiempo a cuestionarte."

Lucía Ortiz de Zárate apunta hacia las empresas que están detrás de estos sistemas: "La ciudadanía hace un uso irresponsable principalmente por el desconocimiento de lo que es la inteligencia artificial", lo que para ella "es una estrategia deliberada por parte de las empresas y de la industria que la produce". A su juicio, ofrecen "una imagen de la IA completamente alejada de lo que realmente es".

La experta pone sobre la mesa además otro problema menos palpable: "El desarrollo y el uso de la inteligencia artificial tiene una huella ecológica tremenda de la que no somos nada conscientes. Se estima que, por ejemplo, una consulta a Chat GPT de unos 100 caracteres consume aproximadamente medio litro de agua". Esta profesora hace hincapié por otro lado "en las condiciones en las que se trabaja para extraer las tierras raras que se utilizan para desarrollar los dispositivos" y lamenta que nosotros utilicemos la inteligencia artificial "como un juguete".

Periodismo y política: el uso de la IA en la comunicación

Para Lucía Ortiz de Zárate, el uso de la IA en la comunicación "no es un problema per se si se fuese transparente respecto al hecho de que un vídeo o una imagen ha sido creada con inteligencia artificial". Para ella, "lo problemático es hacerlo pasar por algo verdadero, por generar un clima de desconfianza o de polarización basado en la mentira". Carmela Ríos nos plantea una reflexión: "¿Qué es lo que hace legítimo a ojos de un periódico o de un medio el uso de la IA? ¿Esa misma Ilustración es legítima o aceptable en un determinado contexto, como si fuera una viñeta, pero no ilustrando un artículo?". Para Pilar Sánchez-García la respuesta es que una imagen generada con IA "puede causar confusión si se utiliza para ilustrar una noticia informativa porque puede tener carga subjetiva", pero le parece una buena herramienta para "ir acompañando una opinión, un análisis subjetivo o un editorial".

¿Y si nos metemos en política? Pilar Sánchez-García defiende el uso de la IA como "un recurso útil para crear expectativas o crear tendencias de futuro siempre que no se busque confundir y con la transparencia de que se ha hecho con IA". Para Carmela Ríos, "un contenido de IA puede ser divertido, puede ser chocante, puede ser muy sorprendente, puede estar muy bien hecho, pero al fin y al cabo es un concentrado de irrealidad".

Trump y la IA como propaganda política

Ambas critican el vídeo "ofensivo" que hizo Donald Trump para ilustrar su idea de Gaza como un resort turístico. Pilar Sánchez-García subraya que el dirigente americano rompe todos los cánones de comunicación política, no solo usando la IA, sino utilizando la verdad y las fake news como algo difuso". Carmela Ríos apunta a una consecuencia quizá no prevista: "La reacción emocional que nos provocan esos contenidos puede ser de rechazo". Recuerda al respecto "cuando encontramos a una parte de miembros del Gobierno de España como participantes del concurso de la Isla de las Tentaciones". "Incluso para quien lo hace es un riesgo porque no sabe cómo va a influir ese tipo de contenido en la conversación social", argumenta.

La IA, enemiga y aliada en la lucha contra la desinformación

Las expertas coinciden en que la inteligencia artificial contribuye a la desinformación y las tres sostienen que es un problema multifactorial. Según Pilar Sánchez-García, existe un clima de desconfianza porque "se ha multiplicado tanto el contenido digital que no lo podemos digerir". "Este contexto de sobreabundancia informativa y polarización está haciendo que la gente tenga desconfianza y está haciendo que la gente sea más crítica y esté recibiendo más alfabetización, pero, por otro lado, está generando actitudes un poco acomodaticias: si lo que veo coincide con lo que pienso, probablemente tienda a creérmelo", explica. La periodista y profesora aclara, no obstante, que no tiene "tanto miedo a que la IA genere la desinformación porque estamos sabiendo combatirla".

Para Carmela Ríos, la clave está en el entorno en el que consumimos la información: "El ciudadano empieza a interiorizar que vive en ecosistemas de contenido donde la información y la desinformación, donde la verdad y la mentira se mezclan de una forma orgánica porque la tecnología es lo suficientemente sofisticada para que eso suceda." La experta en redes sociales alerta del peligro de no enseñar a las personas a "identificar y a buscar los espacios de verdad, de periodismo, donde hay una información jerarquizada y ordenada", porque entonces van "a dimitir de la verdad y de lo que puede ser informativamente relevante y va a pasar a otro estadio, el del entretenimiento".

La profesora Lucía Ortiz de Zárate se manifiesta de forma similar: "Hay una sensación generalizada de que no sabemos qué es verdadero y qué es falso, pero procedente no solo de aquello que es producido con inteligencia artificial". Asegura que "hay gente que desconfía de las estadísticas que dan instituciones públicas que hasta ahora tenían toda su confianza, hay una desconfianza por la información que dan los medios de comunicación". Y, sin embargo, al mismo tiempo, tenemos una "confianza casi ciega en la tecnología", lamenta. Para la profesora de Filosofía Moral de la UAM, la desconfianza que genera no desbanca ni de lejos la confianza generalizada que tiene la gente en la inteligencia artificial porque el número de usuarios no deja de aumentar".

La IA para adoctrinar y hacer negocio

Un estudio de la BBC en el que ha participado RTVE revela que los asistentes de IA a menudo distorsionan las noticias en sus respuestas, lo que compromete la confianza en el periodismo y contamina las búsquedas de los usuarios. "Probablemente sea una tendencia en aumento", indica Pilar Sánchez-García, quien entiende que no siempre hay "una intencionalidad expresa de tergiversar las noticias de los medios, sino que la IA todavía no tiene un entrenamiento tan afinado como para que no tenga errores." Esta profesora y periodista defiende que "la IA es una tecnología neutral que depende del uso para el que se desarrolle y luego, independientemente de si está bien o no enfocada, del uso que hace de ella el usuario".

Carmela Ríos coincide en que uno de los peligros de la inteligencia artificial es su uso para adoctrinar y hacer negocio y explica que esto es posible porque "los propios modelos de inteligencia artificial o de IA generativa generan sus propios sesgos". Esta experta asegura que la IA es "la materia prima que están utilizando determinados estados como Rusia, por ejemplo, para contaminar modelos de IA generativos con informaciones falsas, con el objeto de que las búsquedas sobre unos determinados temas estén contaminadas, estén polarizadas o presenten determinados sesgos".

"Por supuesto que la inteligencia artificial es profundamente política, por supuesto que es profundamente ideológica, pero el problema no está ahí, el problema está en pensar y que se nos venda que es la verdad absoluta", expone Lucía Ortiz de Zárate. "La inteligencia artificial es, ante todo, un producto comercial y es muy evidente cuando vemos que la mayor parte la producen empresas privadas que vierten su ideología sobre ellas", argumenta.

Ante este panorama, las tres expertas coinciden en que el futuro pasa por la alfabetización mediática. Lo resume la profesora Lucía Ortiz de Zárate Alcaraz: "Necesitamos una educación tecnológica para entender que la IA es un producto humano exactamente igual que el resto y que, por lo tanto, va a reproducir todos nuestros sesgos, todos nuestros prejuicios, toda nuestra ideología y todas nuestras visiones del mundo".