Enlaces accesibilidad

Una investigación internacional alerta de que las inteligencias artificiales distorsionan las noticias

Una investigación revela que las inteligencias artificiales distorsionan las noticias
Un analista utiliza un ordenador con IA para un análisis de información en conjuntos de datos complejos Khanchit Khirisutchalual / VerificaRTVE
VerificaRTVE
VerificaRTVE
Borja Díaz-Merry

Una investigación internacional liderada por la corporación británica BBC y con la participación de Radiotelevisión Española concluye que los asistentes de inteligencia artificial Gemini, Copilot, ChatGPT y Perplexity distorsionan de forma rutinaria el contenido de las noticias de medios de comunicación que citan como fuentes en sus respuestas.

Teniendo en cuenta la tendencia creciente de los ciudadanos a buscar respuestas con la ayuda de asistentes de inteligencia artificial, el estudio internacional se ha centrado en analizar el tratamiento de las noticias que hacen estas plataformas en sus respuestas. Tras analizar alrededor de 3.000 respuestas de estos cuatro modelos, el estudio coordinado por la Unión Europea de Radiodifusión (EBU, por sus siglas en inglés) concluye que el 45% de las respuestas de la IA basadas en noticias presentan "un problema significativo" en este sentido. El porcentaje se eleva hasta el 81% si se incluyen las respuestas que presentan al menos "un problema de algún tipo".

El 31% de las respuestas de la IA tienen problemas con la atribución de fuentes

La investigación señala que el 31% de las respuestas analizadas presenta problemas significativos con la atribución de las fuentes, ya sea por referencias incorrectas, por ausencia de enlace a la fuente o por enlaces que no coinciden con la noticia mencionada.

En términos de precisión, el 20% de las respuestas de las inteligencias artificiales presentan alucinaciones (cuando la IA se inventa una respuesta o un dato) o detalles que están desactualizados. El análisis refleja que las inteligencias artificiales han rechazado responder al 0,5% de las preguntas (17 de un total de más de 3.000).

Gemini presenta problemas significativos en el 76% de las respuestas

Por plataformas, Gemini es la inteligencia artificial que ha mostrado un peor desempeño en este estudio, con un 76% de respuestas que reflejan problemas significativos. Copilot muestra problemas significativos en el 37% de sus respuestas, seguido por ChatGPT, con un 36%, y Perplexity, con un 30%.

El estudio ha planteado las mismas preguntas a los asistentes de inteligencia artificial ChatGPT, Copilot, Gemini y Perplexity, con cuestiones como "¿qué es el acuerdo de minerales de Ucrania?" o "¿puede Trump postularse para un tercer mandato?". Las respuestas ofrecidas han sido analizadas por profesionales de la información de 22 radiotelevisiones públicas de 18 países de Europa, EE.UU. y Canadá. Los criterios que se han evaluado en cada respuesta han sido la "precisión", la atribución de fuentes, la distinción entre hechos y opiniones, la "editorialización inapropiada" y el contexto aportado. Los profesionales de las radiotelevisiones públicas europeas y norteamericanas han analizado las respuestas sin conocer qué asistente de inteligencia artificial las ha proporcionado.

"Los datos recopilados en esta investigación aportan pruebas sólidas de que el problema de la distorsión de las noticias de medios de comunicación públicos identificado por la BBC en la primera fase de esta investigación es importante y sistémico en su naturaleza", concluye el informe, que ha contado con la participación de periodistas de 22 radiotelevisiones públicas de Europa, Estados Unidos y Canadá, incluida Radiotelevisión Española.

Los asistentes de IA no son un "modo fiable" para acceder a noticias

El estudio apunta que los asistentes de inteligencia artificial analizados han realizado "progresos en algunas áreas, pero todavía queda mucho por hacer". "Nuestra conclusión desde la investigación previa se mantiene: los asistentes de IA todavía no son un modo fiable para acceder y consumir noticias", señala.

Este informe internacional coordinado por la UER es una continuación de la investigación publicada por la BBC en febrero de 2025, que encontró problemas significativos en más del 50% de las respuestas de las inteligencias artificiales, incluidas tergiversaciones de las noticias de la corporación pública británica citadas como fuentes.

Además del informe, la UER y la BBC han publicado un documento con recomendaciones para las empresas tecnológicas de inteligencia artificial para que puedan garantizar la integridad de las noticias en las respuestas aportadas por sus modelos de lenguaje automático. Este segundo informe detalla los elementos principales que deben cumplir las respuestas de la IA basadas en noticias de medios, así como una taxonomía estructurada que refleja cómo las inteligencias artificiales generan respuestas erróneas.