Enlaces accesibilidad
Opinión

Los desafíos de la inteligencia artificial: cuando los expertos reflexionan, lo mejor es escuchar

  • Para las grandes empresas, la fase experimental con la inteligencia artificial ya ha quedado atrás
  • En el VI AMETIC AI Summit, los riesgos y amenazas de la IA han sido foco de reflexión
Los desafíos de la inteligencia artificial
Logo del VI AMETIC AI Summit 2026 proyectado en el techo 0
Manuel González
Manuel González

En el VI AMETIC AI Summit no solo se ha hablado de cómo se está desplegando la IA generativa en el sector empresarial y la administración pública. También ha habido espacio para la reflexión del impacto de la inteligencia artificial, desde sus ventajas hasta sus riesgos.

"Puede que el momento decisivo de la inteligencia artificial llegue en los próximos cinco a 20 años, pero no descartaría que fuese en uno o dos. Y sigo sin descartar 100 años; es solo que mi confianza en que esto no llegaría en mucho tiempo se ha visto afectada por la constatación de que la inteligencia biológica y la inteligencia digital son muy diferentes, y la inteligencia digital probablemente sea mucho mejor".

Las palabras de Geoffrey Hinton, uno de los padres de la inteligencia artificial moderna, conectan muy bien con el título de la ponencia de Senén Barro, director científico del CiTIUS, ¿Qué puede salir mal?, en la sexta edición del AI Summit organizado por AMETIC. Con ese interrogante, el experto —con más de 40 años de trayectoria en IA— advierte que tenemos que anticiparnos a la desinformación digital, la delegación cognitiva o el desempleo tecnológico antes de que sea demasiado tarde. 

Senén Barro durante su intervención en el VI AMETIC AI Summit

Senén Barro durante su intervención en el VI AMETIC AI Summit

La intervención de Senén —que pone cordura académica en un evento principalmente empresarial— actúa como la voz de la conciencia en un congreso que lleva a otra dimensión la inteligencia artificial, pero a una muy cercana. Mientras en la calle el día a día sigue su curso, las grandes organizaciones parece que ya han sido colonizadas por sistemas inteligentes. Un entorno profesional donde miles de empleados usan como algo cotidiano la inteligencia artificial generativa y los agentes para aumentar la productividad, el impulsar el negocio y reducir costes multimillonarios. 

Dicen los expertos que la fase experimental ya ha quedado atrás, aunque haya informes que indican que tan solo el 1% de las empresas usan la IA de forma intensiva. La implementación a escala de esta tecnología ha sido uno de los temas centrales del Summit de AMETIC, patronal que agrupa a cientos de empresas tecnológicas, pymes, grandes corporaciones y universidades. Un foro donde se debaten temas como la soberanía digital, las inversiones públicas y privadas en IA o la necesidad de crear un marco común. Y también el lugar donde poner los pies en el suelo y reflexionar hacia dónde vamos, porque cada día que pasa es más necesario. La transformación avanza más rápido que en el pensamiento reflexivo.

En lo tecnológico

Si ese despliegue es una realidad, no hay que olvidar algunas de las tensiones a las que se enfrenta el sector. Una de ellas, la amenaza que sienten las empresas que dan servicios de IA para que otras las implementen de cara a los usuarios. Ha sido motivo de controversia en los últimos meses. Es la tendencia del vibe coding (crear aplicaciones usando modelos de lenguaje como ChatGPT o Claude, sin saber de programación), lo que democratiza la creación de software a medida sin contratar a un profesional. ¿En qué papel quedan las empresas que las desarrollaban si ahora cualquier puede hacerlo tecleando unos prompts?

El código no lo es todo. Desde el escenario del IA Summit, Ana Alonso rebajaba ese planteamiento al recordar que esas herramientas fruto de lo generativo carecen de gobernanza, seguridad, regulación y uso de datos. El desarrollo a medida es más rápido, pero tiene más grietas por la naturaleza probabilística de los sistemas de IA, un 90%. Cifra que suena bien a priori, pero en contextos como la salud o la banca, ese 10% restante es crítico para dejarlo al azar. 

En la salud

De lo empresarial a algo tan vital como la salud. "Si la inteligencia artificial puede salvar más vidas que los sistemas actuales, ¿podemos permitirnos no usarlas?". Con esta pregunta, Petia Radeva, catedrática en IA y directora de investigaciones en aplicaciones biomédicas, cerró su intervención centrada en la divulgación y en una lluvia de casos reales que están revolucionando el sector sanitario. 

La misma tecnología que diagnostica también es la que se inventa enfermedades. O genera fármacos inexistentes. Una llamada de atención para recordar que hay que tener cuidado en dar todo el poder a la IA. 

El sector sanitario está siendo uno de los grandes beneficiados de este salto tecnológico. Los ejemplos reales abundan: sistemas aprobados que detectan retinopatía diabética sin segunda opinión médica, modelos que estiman la probabilidad de problemas cardiovasculares a 10 años, IA que ayuda a decidir tratamientos oncológicos, diagnóstico por imagen para la detección del cáncer de mama, cerebro o melanoma, sistemas que resumen consultas médicas. Se está pasando de medicina reactiva a preventiva, de modelo generalizado a tratamientos individualizados, de hospitales a seguimiento en remoto desde casa. Quienes teman que esto va a provocar prescindir de profesionales, se equivocan. En los próximos años, la demanda de perfiles sanitarios seguirá en aumento.

No todo es de color de rosa. Aún hay que solucionar el sesgo de datos (detección de melanoma entrenados con piel clara que falla en otros perfiles, por ejemplo), la privacidad de los datos médicos sensibles en la nube, o un aumento de la dependencia tecnológica en los modelos de lenguaje. La supervisión humana durante toda la cadena seguirá siendo esencial. Y los temas éticos y legales también. ¿Quién es responsable si algo sale mal, el médico o la IA? ¿Cómo se legisla todo esto al ritmo que va la tecnología? En definitiva, los profesionales tienen que entender el sistema si quieren confiar en él.

En la seguridad

Y en este nuevo escenario, la ciberseguridad tal y como la conocemos es insuficiente. El nuevo paradigma es cognitivo, proteger los sistemas que razonan y deciden. El riesgo ya no son las amenazas técnicas clásicas de toda la vida. Con la IA generativa se suma una capa más profunda (envenenamiento de datos, fugas de información, inyección de ataques o decisiones opacas), que expande el concepto de peligros e inseguridad. 

Esto nos lleva a la seguridad cognitiva, término muy interesante mencionado por Jordi García Castillón, experto en ciberseguridad en las jornadas de AMETIC, que trata a la IA como un agente que debe pasar una evaluación de su comportamiento, como si fuese un candidato en un proceso de selección. Y si hace falta, someterla a pruebas psicotécnicas que midan su estabilidad, coherencia y resistencia a la manipulación. Ahondar no en lo que falla sino por qué decide decisiones concretas. 

Para perfilar la seguridad del futuro, los sistemas de IA deben asemejarse a perfiles especializados. Un robot en sanidad o defensa debe mostrar estabilidad antes de ejecutar una acción. Al otro lado, la parte humana está obligada a saber qué y cómo preguntar. La clave está en la trazabilidad, seguir el rastro de qué hace la inteligencia artificial de principio a fin. No hay que frenar su desarrollo, sino decidir bajo el ojo humano cómo queremos que avance y quién se beneficia de este progreso.

Intervención de Marcos Alonso durante el VI AMETIC AI Summit

Intervención de Marcos Alonso durante el VI AMETIC AI Summit

En lo filosófico

En medio de este contexto tecnológico, no está mal que haya quien nos recuerde que sin la Grecia Clásica no existiría la inteligencia artificial. Figuras como la del filósofo Marcos Alonso se hacen necesarias en congresos de innovación. Nos ha recordado lo tecnológica que era la civilización griega y los peligros que conlleva, plasmados en la mitología (Platón demonizaba la escritura. La veía como un avance técnico que produce imitación y nos hace más incapaces). Los ecos del pasado persisten.

El relato de Alonso plantea una dualidad, lo tecnológico como salvación y como riesgo, que hemos visto hasta la saciedad en la cultura popular (como en Terminator o Matrix). El pensamiento de Alonso invita a dejar atrás el alarmismo, pero sin olvidar los riesgos reales. Unos riesgos que están cobrando un mayor protagonismo en los eventos tecnológicos y que en el AI Summit de AMETIC no han dejado de repetirse: impacto laboral, sesgos, dependencia tecnológica (como la que ya tenemos de Google Maps y que ahora también la depositamos en ChatGPT o Gemini), responsabilidad, vigilancia o coste medioambiental. 

Es positivo que esas amenazas sean motivo de debate, pero el gran acierto del filósofo es que, más allá de lo técnico, este nuevo paradigma de la IA generativa está desembocando en una crisis de identidad. ¿Qué pasará cuando estos sistemas reemplacen a nuestros familiares, amigos y amantes? En palabras suyas: "Es el momento de repensar quiénes somos y qué tipo de sociedad queremos ser", cuando las máquinas ya nos superan en conocimiento, decisiones y creatividad instantánea. A estas alturas, aunque suene a ciencia ficción, decidir qué seres humanos queremos ser ya no puede desligarse del hecho tecnológico.

Es necesario hablar de inversiones, impacto, productividad. Pero si algo dejó claro el AI Summit de AMETIC es en qué condiciones queremos convivir con la inteligencia artificial más allá de las cuentas de beneficios, la saturación energética y las cuestiones éticas y morales. Una decisión tecnológica, empresarial y cultural que no debería aplazarse.