Irán: la primera guerra narrada (falsamente) con inteligencia artificial
Durante la actual guerra en Oriente Medio hemos visto cómo la inteligencia artificial se ha utilizado de forma masiva para difundir propaganda bélica. La cantidad de contenidos falsos se ha disparado, en ocasiones publicados desde los perfiles oficiales de las autoridades de los países en conflicto (Estados Unidos, Israel e Irán). Analizamos con expertos cómo se está utilizando la IA para desinformar y con qué objetivos.
"Ha habido un crecimiento exponencial de contenidos generados con inteligencia artificial", detecta Lucía Ortiz de Zárate, profesora de Filosofía Moral en la Universidad Autónoma de Madrid. Cree que la utilizan tanto el bando iraní como Israel y Estados Unidos, con usos tan dispares como "hacer propaganda, hacer burla o motivar a un lado y a otro".
Son contenidos que se han expandido desde el inicio de la guerra. A primera hora de la mañana del 28 de febrero, el presidente de Estados Unidos, Donald Trump, confirmaba un ataque de Estados Unidos coordinado con Israel. Horas más tarde se comunicaba la muerte del ayatolá Ali Jameneí, mientras en redes ya circulaba una foto de líder supremo entre escombros generada con inteligencia artificial.
Vídeos hechos con IA para mostrar la falsa muerte de Netanyahu o un falso ataque en Tel Aviv VerificaRTVE
Para Ramón Salaverría, catedrático de Periodismo en la Universidad de Navarra y coordinador del Observatorio Ibérico de Medios Digitales (Iberifier), la guerra de Irán supone una "evolución" en la desinformación: en la pandemia "hubo una onda masiva" de "desinformación textual", pero por su propia naturaleza "era un fenómeno muy poco visual". En la guerra de Ucrania se expandió la "desinformación gráfica" con la "manipulación de vídeos y fotografías", pero en este conflicto en Oriente Medio "la desinformación está mucho más ligada a los contenidos elaborados con IA".
Tal Hagin, investigador especializado en desinformación y fuentes abiertas (OSINT), apunta que esta magnitud de fotos y vídeos con IA se debe a los avances en las plataformas, "que permiten crear falsificaciones de mayor calidad a un menor coste". Además, pone el foco en uno de los retos que supone este fenómeno para los verificadores: "Los vídeos generados por IA pueden resultar difíciles de desmentir de una forma comprensible para el espectador" mientras que "los vídeos antiguos o las noticias sin fuentes pueden desmentirse con bastante facilidad".
Contenidos hechos con IA difundidos por Israel, Irán y EE.UU.
Mahsa Aminolahi, editora de noticias en la Unión Europea de Radiodifusión (UER), considera que la guerra de Irán es el primer conflicto bélico en el que "la IA se está utilizando en una escala tan grande". No solo es, a su juicio, una cuestión de cantidad, porque la diferencia es quién lo difunde: "No solo la utilizan las cuentas no oficiales o las máquinas de propaganda, sino que también se ve en las fuentes oficiales".
Recuerda que el primer ministro israelí, Benjamin Netanyahu, publicó un vídeo cuyo audio estaba manipulado con IA para simular que habla farsi, como ya aclaramos en VerificaRTVE. Pero hay más ejemplos: "vemos vídeos claramente hechos con IA publicados por la Casa Blanca y vemos a la Guardia Revolucionaria iraní publicando vídeos mejorados con IA de ataques con misiles", añade esta periodista. También es el caso de la foto de una mochila infantil con sangre que publicó en X la Embajada de Irán en Austria para denunciar el ataque en una escuela de Minab.
¿Se puede considerar que la IA es un arma de propaganda más? "Está muy claro que cualquier mensaje que manipules a través de IA sin advertir a los espectadores, de alguna manera entra en esa máquina de propaganda", dice Aminolahi. "La IA permite a los diferentes actores del conflicto dar una mejor imagen de su poderío militar", añade.
Cuando los internautas creen ver vídeos creados con IA que son reales
La expansión y popularización de vídeos generados con inteligencia artificial hace dudar a los usuarios sobre contenidos que sí son reales. Es lo que ha ocurrido con el bulo que sostiene que Benjamin Netanyahu está muerto. El primer ministro israelí ha comparecido públicamente en las últimas semanas y ha publicado vídeos en sus redes sociales, pero los usuarios insisten en que ha muerto y en que esos contenidos están hechos con IA. "Creo que la IA se está utilizando para impulsar conspiraciones en general y que ha permitido que la conspiración de la muerte de Netanyahu haya ganado mucho más terreno del que hubiera tenido hace solo un año", explica Tal Hagin.
Según Ramón Salaverría, esta falsa narrativa muestra que "en muchas ocasiones pesa más lo que uno quiere creer que la propia evidencia empírica" porque "hay personas más cómodas con la desinformación que les da la razón que con la información que les desafía". Mahsa Aminolahi explica que "en el lado iraní la gente desconfía tanto del régimen que cuando los fotógrafos oficiales toman imágenes de un ataque de Estados Unidos e Israel en lugares civiles de Irán y se ve a gente herida, muchos comentarios cuestionan si están generadas con IA".
En otros casos es la propia IA quien confunde a los usuarios cuando se utilizan los asistentes erróneamente como herramientas de verificación. La IA de X, Grok, aseguró que las imágenes reales del ataque a la escuela de Minab del 28 de febrero se registraban en Afganistán en 2021. En otra respuesta, llegó a asegurar que el vídeo de un edificio bombardeado en Beirut correspondía a la mascletá de las Fallas de Valencia. "Las herramientas de IA generativa o de chatbot tienen una cierta aura de no estar contaminadas por sesgos humanos", dice el catedrático de Periodismo Ramón Salaverría, pero esto "no las libera de errores". Además, considera que hay personas que se escudan en ello y depositan más confianza en la IA "que en el contenido evaluado y jerarquizado por profesionales de la información". Añade que cuando estas tecnologías "se confunden", "dan lugar a situaciones indeseables".
La red social X suspende cuentas si no avisan de que su contenido es IA
El 3 de marzo (solo tres días después del inicio de la guerra), la red social X anunció que suspende la monetización de aquellas cuentas que publiquen vídeos sobre conflictos armados hechos con IA sin advertir de ello. Lo anunció el jefe de producto de X, Nikita Bier: "En tiempos de guerra, es fundamental que las personas tengan acceso a información auténtica sobre el terreno".
Lucía Ortiz de Zárate cree que esta desconfianza de la ciudadanía respecto a los contenidos hechos con IA "tiene que ver con una deficiencia en la regulación europea". Sostiene que cualquier contenido generado artificialmente debería llevar "etiquetas como marcas de agua". "Las reglas o los parámetros que tendríamos para asegurarnos que la ciudadana diferenciara si algo está generado por IA no funcionan", dice esta profesora, pero cree que, aunque funcionasen, hay una crisis de confianza en las instituciones y en los medios" que amplifica este tipo de narrativas.