La doble cara de Mythos, el modelo de IA más avanzado de Anthropic: blindaje digital y amenaza estratégica
- El algoritmo, diseñado para la investigación de seguridad avanzada, puede identificar y explotar vulnerabilidades en software
- La propia compañía ha avisado de que tiene la capacidad de convertirse en un problema de defensa nacional
Pocos lanzamientos recientes han generado tanto recelo como Claude Mythos. El pasado 7 de abril, Anthropic presentó este modelo de inteligencia artificial generativa, diseñado para la investigación de seguridad avanzada, que destaca por su asombrosa capacidad para identificar y explotar vulnerabilidades en software. Tanto es así, que la propia compañía decidió no ponerlo a disposición del público por las implicaciones de seguridad que conlleva.
En pruebas internas anteriores a su lanzamiento, Mythos consiguió identificar miles de vulnerabilidades de día cero en los principales sistemas operativos y navegadores, incluidos fallos con décadas de antigüedad en sistemas considerados extremadamente seguros.
Una vulnerabilidad de día cero es un fallo de seguridad en un sistema, software o hardware que no es conocido por el fabricante ni tiene aún un parche disponible en el momento en que se descubre. El término alude a que el desarrollador ha tenido cero días para corregirlo. Cuando estas brechas son descubiertas por piratas informáticos antes que por el proveedor, las implicaciones de seguridad son especialmente graves, porque suponen un riesgo que combina desconocimiento, debilidad y alto potencial de explotación.
Coincidiendo con el lanzamiento de Mythos, el secretario del Tesoro estadounidense, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron de urgencia a los consejeros delegados de los principales bancos de Wall Street para advertirles de que las reglas del juego habían cambiado y debían prepararse ante el nuevo escenario. El Banco Central Europeo (BCE) también se ha reunido con los responsables de seguridad de la banca de la eurozona para pedirles que desarrollen planes de contingencia ante Mythos, calificándolo de potencial amenaza para el sistema bancario global. Entre los convocados, estaban los cuatro grandes bancos españoles: Santander, BBVA, CaixaBank y Sabadell.
En este contexto, el supervisor jefe del Banco Federal Alemán, Michael Theurer, ha instado a las autoridades de la Unión Europea a solicitar acceso a Mythos, cuyo uso por ahora está restringido a un círculo limitado de actores en Estados Unidos —principalmente agencias federales y socios estratégicos—, sin presencia de instituciones europeas. Theurer reclama que tanto Anthropic como la administración de Donald Trump faciliten ese acceso. "Considero necesario que la Comisión Europea y los gobiernos de Europa se dirijan ahora también a la empresa —o más bien a Estados Unidos— para solicitar que se comparta la tecnología", ha declarado en una entrevista concedida a Reuters. "Tiene que haber una solicitud oficial para que en Europa también podamos beneficiarnos de estos conocimientos".
El director ejecutivo de Anthropic, Dario Amodei. D. BALIBOUSE / REUTERS
Un potencial problema de defensa nacional
La propia empresa Anthropic ha avisado de que su sistema tiene la capacidad de convertirse en un problema de defensa nacional. Su impacto puede ser sistémico, ya que las infraestructuras más críticas de cualquier país actual —la luz que llega a los domicilios, los hospitales, los bancos, los ejércitos...— funcionan gracias a programas informáticos. A nadie escapa que Mythos podría representar un avance significativo para que empresas y entidades financieras refuercen sus defensas frente a ciberataques, pero también que si este modelo cae en manos de actores maliciosos, como hackers o gobiernos con objetivos de ciberinteligencia, podría convertirse en una herramienta de gran poder para identificar vulnerabilidades, explotar sistemas críticos y desestabilizar infraestructuras digitales a gran escala.
El pasado mes de febrero, el secretario de Guerra de Estados Unidos, Pete Hegseth, incluyó a Anthropic en la lista de riesgos para la cadena de suministro —una clasificación históricamente reservada a adversarios extranjeros— y ordenó a las agencias federales dejar de utilizar su tecnología. El conflicto surgió por la negativa de la compañía a eliminar cláusulas contractuales que vetaban el uso de Claude para vigilancia masiva doméstica o armamento completamente autónomo. Semanas después, una jueza federal suspendió la medida y llegó a calificar de “orwelliano” que una empresa estadounidense pudiera ser tratada como enemiga del Estado por discrepar del gobierno.
Detrás de ese desacuerdo hay una cuestión mucho más profunda: el papel que puede desempeñar la inteligencia artificial en ámbitos donde las decisiones tienen consecuencias directas sobre derechos fundamentales o incluso sobre la vida humana. En el caso de la vigilancia doméstica, la integración de modelos avanzados permitiría automatizar el análisis masivo de comunicaciones, comportamientos y datos personales a un nivel nunca visto antes.
En el terreno del armamento autónomo, las implicaciones son aún más delicadas. Delegar en sistemas de IA la identificación de objetivos y la toma de decisiones letales plantea dilemas éticos y legales no resueltos: desde la atribución de responsabilidad en caso de errores hasta el cumplimiento del derecho internacional humanitario, por no hablar de un mayor riesgo de escaladas no controladas.
El Departamento de Guerra de EE.UU. ya utiliza Mythos
Durante el enfrentamiento abierto entre el Pentágono y Anthropic, Donald Trump llegó a asegurar que era una compañía “woke”. Sin embargo, apenas diez días después del lanzamiento de Mythos, el director ejecutivo de Anthropic, Dario Amodei, fue recibido con los brazos abiertos en la Casa Blanca y actualmente la National Security Agency (NSA), dependiente del Departamento de Guerra, ya utiliza Mythos.
El propio presidente de Estados Unidos ha dicho hace unos días que Anthropic se está "encarrilando" a ojos de su administración. Preguntado en un programa de la cadena CNBC sobre si había un acuerdo en el horizonte entre la empresa y el Pentágono, y si habían superado las desavenencias iniciales, Trump aseguró: "Es posible. Queremos a las personas más inteligentes".