Enlaces accesibilidad

Del mito de Frankenstein a las leyes de Asimov: cuáles son los riesgos reales de la inteligencia artificial

  • Cada vez se escuchan con mayor insistencia voces que advierten del peligro potencial de esta tecnología
  • Aunque apenas hay dudas de que plantea grandes desafíos éticos, es más discutible si representa una amenaza "existencial"

Por
IA y los riesgos reales que puede tener.
El desarrollo de la inteligencia artificial parece haber alcanzado en los últimos meses un ritmo vertiginoso.

A pesar de que es una herramienta que lleva décadas gestándose, ha sido en los últimos meses cuando el desarrollo de la inteligencia artificial parece haber alcanzado un ritmo vertiginoso. El público general ha comenzado a ver sus enormes capacidades, pero aplicaciones generativas como ChatGPT, Midjourney o Dall-e son solo la punta del iceberg de una revolución tecnológica con capacidad para repercutir prácticamente en todos los ámbitos de la vida humana. En este punto de inflexión, se escuchan cada vez con mayor insistencia voces que advierten de su peligro potencial, y piden a las compañías desarrolladoras que se guíen por el principio de precaución.

A finales de marzo, algunos de los líderes más importantes del sector, como Steve Wozniak, Jaan Tallinn o Elon Musk, planteaban en una carta abierta los riesgos que la inteligencia artificial puede acarrear. Denunciaban que su desarrollo se está realizando sin ningún tipo de planificación, y por ello pedían que se paralizasen temporalmente los grandes experimentos con esta tecnología, para "desarrollar e implementar un conjunto de protocolos de seguridad".

Poco después apareció una segunda carta abierta, firmada esta vez por miembros de la Asociación por el Avance de la Inteligencia Artificial (AAAI), como Francesca Rossi de IBM o Eric Horvitz de Microsoft. En ella, después de enumerar los múltiples beneficios que esta tecnología ya está aportando a la sociedad, reconocían "las limitaciones y preocupaciones sobre sus avances, incluida la posibilidad de que los sistemas de inteligencia artificial cometan errores, proporcionen recomendaciones sesgadas, amenacen nuestra privacidad, empoderen a los malos actores con nuevas herramientas y tengan impacto en determinadas profesiones".

Más recientemente, otro gurú tecnológico, Geoffrey Hinton, conocido como 'el padrino de la inteligencia artificial', se desvinculaba profesionalmente de Google para alertar sobre los desarrollos que actualmente se están haciendo con la inteligencia artificial y los riesgos que plantean. En una entrevista concedida a MIT Technology Review, este pionero del deep learning, o aprendizaje profundo, explicaba con más detalle su decisión, y afirmaba que la nueva generación de grandes modelos lingüísticos -en especial, GPT-4, lanzado por OpenAI en marzo- le ha hecho darse cuenta de que las máquinas van camino de ser más inteligentes de lo que ellos mismos habían pensado en un primer momento.

De manera particular, Hinton se mostraba preocupado por el hecho de que esta tecnología pueda aprovecharse para cambiar radicalmente el signo de algunas de las experiencias humanas "más trascendentales", como las elecciones o las guerras. Aunque, en última instancia, apuntaba a un riesgo existencial, en el que lo que está en peligro no es otra cosa que la propia humanidad.

De Frankenstein a Isaac Asimov

En el fondo, bajo esta desconfianza subyace un temor tan antiguo como el desarrollo de la ciencia y la tecnología. Una de las principales preocupaciones es que estos modelos de inteligencia artificial adquieran habilidades imprevistas, de tal forma que la criatura pueda volverse contra su creador, como si de una versión moderna del mito de Frankenstein se tratase, en los albores de esta nueva revolución industrial que cabalga a lomos del algoritmo y el silicio.

Ante el horizonte de incertidumbre que se abre, muchas voces han vuelto a apelar a las leyes de la robótica de Asimov, un visionario que ya adelantó la necesidad de imponer un orden dentro del vacío moral de los universos sintéticos, aunque tampoco hay que olvidar que el genial escritor era, por encima de todo, un maestro de la ciencia ficción. Sus famosas leyes están precedidas por una máxima: "Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños".

Pero si apenas hay dudas de que el inmenso poder de la inteligencia artificial plantea grandes desafíos de carácter ético, lo que es más discutible es que esta tecnología represente una amenaza "existencial" para el ser humano, al menos de manera autónoma. "A veces se ve a la inteligencia artificial como un riesgo poderoso. No creo que vayamos ahí, pero sí que es una tecnología que cada vez es más disruptiva y hay que regularla cuanto antes", asegura a RTVE.es Amparo Alonso Betanzos, catedrática de Ciencias de la Computación en la Universidade da Coruña, quien critica que la Unión Europea creó en 2018 un grupo interdisciplinar de alto nivel para abordar una regulación que dotase de una dimensión ética a la inteligencia artificial, "pero ya estamos en 2023 y seguimos igual, y cada vez es más patente que necesitamos dar este paso".

"No hay transparencia sobre cómo entrenan, qué hacen, cómo guardan los datos… Y todo eso es necesario que se regule ya. Tenemos que ponernos a trabajar en este sentido, pero sin frenar la investigación, porque hacerlo también frenaría el poder utilizar la propia tecnología como remedio", advierte esta especialista.

Sobre ese posible riesgo "existencial", Alonso Betanzos recalca que el objetivo no es que la máquina sustituya a la persona, sino que la complemente, y explica que "la propuesta de regulación europea se apoya en siete pilares que tienen que ver con diferentes aspectos, y uno de ellos es la agencia humana, ya que siempre va a haber un ser humano presente en todas las etapas de desarrollo y en la aplicación de la inteligencia artificial. De hecho, en los sistemas de alto riesgo, siempre va a tener que ser un humano el que tome las decisiones".

Propuesta de ley europea

La Unión Europea ha avanzado de manera significativa en las últimas semanas, redactando a contrarreloj una propuesta de ley que se votará este 11 de mayo, antes de pasar a la siguiente fase de negociación. Su futura Ley de Inteligencia Artificial podría entrar en vigor en los próximos meses; mientras Estados Unidos, donde tienen su sede las principales empresas que están desarrollando esta tecnología, comienza también a dar sus primeros pasos en materia de regulación.

"La inteligencia artificial es una de las herramientas más poderosas de nuestro tiempo, pero para aprovechar sus oportunidades, primero debemos mitigar sus riesgos. Hoy pasé por una reunión con líderes de inteligencia artificial para abordar la importancia de innovar de manera responsable y proteger los derechos y la seguridad de las personas", anunció el presidente Joe Biden en su cuenta oficial de Twitter el pasado jueves.

Mientras Bruselas y Washington han movido ya ficha o están en ello, las dudas se centran también en lo que harán el resto de actores de esta partida global que se desarrolla a múltiples bandas. El mayor obstáculo no es solo que el protagonismo recaiga en empresas privadas, inmersas en una feroz carrera competitiva, sino que también entran en juego otras potencias mundiales, como China o Rusia, lo que complica un necesario acuerdo global desde el punto de vista ético.

¿Una amenaza real?

En este campo de batalla geoestratégico, las comparaciones del poder de destrucción de la inteligencia artificial con el de las armas nucleares han sido constantes y se han intensificado en los últimos meses, aunque esta visión de la herramienta como un potencial ángel exterminador no es compartida por muchos especialistas, que la consideran "exagerada". "Es un relato que está más cercano a nuestra concepción cultural de la inteligencia artificial, por tema de ciencia ficción, sumada al tratamiento que se le ha dado en los medios de comunicación, que a una amenaza real", expone a RTVE.es Pablo Haya, director de Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC).

"Estos argumentos se basan en que vamos a ser capaces de crear un ser que nos va a sojuzgar o aniquilar porque es más inteligente que nosotros. La decisión obvia que va a tomar este ser es conseguir más poder y para ello eliminarlos o someternos. En mi opinión esto es un argumento muy especulativo, que plantea un escenario excesivamente maximalista como para que ahora mismo sea un aspecto relevante sobre el que llamar la atención", opina este experto.

"Los riesgos existen y hay que controlarlos, pero pongamos sobre la mesa casos concretos y reales, como si va a haber sustitución de puestos laborales o cambios en modelos económicos. Eso es lo tenemos que monitorizar y ver cuáles son los impactos reales", prosigue, y apunta a que "si hay que tomar medidas, estas tienen que ser proporcionales a lo que está ocurriendo", lo que evitaría "enfrascarnos en debates más hipotéticos".

"Yo apelaría a la prudencia en ambos sentidos, porque también está el otro mensaje tecno optimista, de que aquí no pasa nada y no hace falta regular. Lo que hay que hacer ahora es valorar los riesgos e identificar qué es lo que hay que regular, que no se trata de otra cosa que de garantizar derechos, más que prohibir", añade Haya.

El salto que promete traer consigo la inteligencia sintética es tan radical que inevitablemente levanta esperanza y recelo a partes iguales. Pero, más allá de sus riesgos potenciales, lo que tampoco nadie pasa por alto son los enormes beneficios que esta herramienta puede aportar al bienestar humano, en campos tan dispares como la medicina de precisión, la educación o la lucha contra el cambio climático. "Prácticamente lo que tendríamos que preguntarnos es que en dónde no se podrá utilizar", resume Amparo Alonso Betanzos, de la Universidade da Coruña.

En lo que se refiere a los temores que despierta, el investigador de ciencia de datos Pablo Haya recuerda que siempre hay que tener presente que "estas tecnologías no simulan la mente humana, lo que hacen es una serie de cálculos para hacer tareas que nosotros hacemos, pero de manera radicalmente distinta", ya que "no tiene nada que ver el procesamiento de una calculadora, de una máquina de calcular, que al final es lo que tenemos ahí, con lo que ocurre en nuestras neuronas". "Si simulamos neuronas biológicas en un entorno digital, ¿de ahí emergerá una conciencia? Yo creo que eso no lo podemos responder, porque ni siquiera sabemos cómo funciona la conciencia humana", reflexiona este especialista.