Enlaces accesibilidad

La IA supone un "riesgo de extinción" similar a las pandemias y la guerra nuclear, según sus creadores

  • El creador de ChatGPT y otros 350 expertos firman una carta abierta para advertir de la amenaza
  • La declaración cuenta con la rúbrica de Geoffrey Hinton, quien renunció a su puesto en Google para hablar libremente

Por
Imagen de una infografia de un microprocesador de inteligencia artificial
Imagen de una infografia de un microprocesador de inteligencia artificial

"Mitigar el riesgo de extinción por la Inteligencia Artificial debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear". Es la breve declaración que han firmado más de 350 ejecutivos, investigadores e ingenieros de primer nivel para advertir de la amenaza que supone para la humanidad un desarrollo irreflexivo de esta tecnología.

La carta abierta cuenta con la rúbrica de Geoffrey Hinton, quien renunció a principios de mayo a su puesto como vicepresidente de ingeniería de Google para hablar libremente de las implicaciones, así como de Sam Altman, creador de OpenAI, Demis Hassabis de Google DeepMind, Dario Amodei de Anthropic y Yoshua Bengio, ganador junto a Hinton del premio Turing, considerado el "nobel" de la ingeniería informática.

La escueta declaración, de solo una línea, busca superar el "obstáculo" que puede representar la dificultad de expresar la preocupación por los riesgos más graves de la IA avanzada y así "abrir el debate" en torno a una cuestión que expertos, periodistas, responsables políticos y el público en general discuten cada vez más. La creación y difusión de información e imágenes falsas, la amplificación de discriminaciones sociales y la dificultad para controlar sus consecuencias son algunos de los temas que han levantado controversia en los últimos meses.

"También pretende dar a conocer al creciente número de expertos y figuras públicas que también se toman en serio algunos de los riesgos más graves de la IA avanzada", se lee en la página web.

Los países estudian cómo regularla

Microsoft lanzó en noviembre el programa ChatGPT de Open AI, lo que ha causado fascinación y miedo a partes iguales. Italia fue uno de los primeros países en prohibir la herramienta ante la dificultad de distinguir lo creado por humanos y lo que no, mientras la Unión Europea ha expresado su intención de impulsar una ley que regule ampliamente esta tecnología. También Estados Unidos está analizando sus implicaciones.

Altman, de Open AI, compareció a mediados de mayo en el Congreso estadounidense y pidió que regulasen el desarrollo y los usos de la Inteligencia Artificial. Según defendió, puede aplicarse en beneficio de la humanidad desde múltiples ámbitos —desde la medicina hasta la lucha contra la crisis climática—, pero consideró que es necesario que los gobiernos intervengan para asegurar que se hace de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

El presidente Joe Biden se reunió también con él, junto a Hassabis, de Google DeepMind y Amodei, de Anthropic, así como la vicepresidenta de su Ejecutivo, Kamala Harris, para conocer sus perspectivas respecto a una regulación.

Otros líderes del sector, como Steve Wozniak, Jaan Tallinn o Elon Musk, también publicaron una cara abierta en marzo reclamando que se pausaran los sistemas más poderosos de Inteligencia Artificial hasta contar con más conocimiento y control sobre las herramientas.