Enlaces accesibilidad

El desarrollo de armas de inteligencia artificial inquieta a Stephen Hawking y a cientos de expertos

  • Referentes en tecnología, ciencia y cultura firman una carta contra su desarrollo
  • Advierten de que podrían ser utilizadas para asesinatos de grupos étnicos
  • Temen que estas armas, ya “factibles”, acaben en manos de terroristas

Por
Stephen Hawking durante una iniciativa global por la ciencia en el Royal Society de Londres, en julio de 2015
Stephen Hawking durante una iniciativa global por la ciencia en el Royal Society de Londres, en julio de 2015

Centenares de investigadores de todo el mundo han firmado una carta en contra del desarrollo de armas de inteligencia artificial, algo que ven factible en pocos años y que podría tener efectos devastadores.

También han puesto su rúbrica en esta declaración expertos en tecnología, científicos, filósofos y miembros del mundo de la cultura, entre los que destacan Stephen Hawking o Noam Chomsky como referentes. Precisamente Hawking ya advirtió en 2013 de que los "robots asesinos" podrían tomar el control sobre sí mismos y de que podrían suponer el "el fin de la raza humana".

En el documento, difundido en un congreso en Buenos Aires, advierten de que la aplicación de la inteligencia artificial al desarrollo de armas de armas a nivel global es “factible” en cuestión de “años, no décadas”.

Así, hacen referencia a equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana. Exponen que son ideales para tareas como asesinatos selectivos de personas o grupos étnicos o incluso desestabilizar naciones.

Una guerra virtual, los “Kalashnikovs del mañana”

Un

Un "robot asesino" presentado en la campaña de 2013 en Londres contra la aplicación de la inteligencia artificial en las armas CARL COURT

“Si algún poder militar avanza hacia el desarrollo de armas de inteligencia artificial, una carrera armamentística global es virtualmente inevitable y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana", apuntan en la carta, presentada este martes en el Conferencia Internacional de Inteligencia Artificial.

Por ello, concluyen en que esta tecnología “no sería beneficiosa para la humanidad”, pese a que se defiendan ventajas como que minimizarían el número de bajas en las operaciones.

Agregan, además, que sería solo cuestión de tiempo que esas armas terminen en el mercado negro y en manos de terroristas y señores de la guerra, ya que, a diferencia de las armas nucleares, no requieren costosos materiales difíciles de obtener y se volverían baratas de obtener y de producir masivamente.

El texto también lo han firmado el cofundador de Apple, Steve Wozniak; Elon Musk, presidente de Tesla y SpaceXel; y el responsable de inteligencia artificial de Google, Demis Hassabis, entre otros.