Enlaces accesibilidad

Google se compromete a no emplear su inteligencia artificial para fabricar armas tras la presión de los empleados

  • Google tiene contrato con el Departamento de Defensa para el Proyecto Maven
  • Proyecto para detectar objetivos con IA en su lucha contra el Estado islámico
  • Una oleada de protestas internas pedía no participar en estos conflictos

Por
Red de inteligencia artificial
Red de inteligencia artificial Getty Images/iStockphoto noticias

Tras meses de protestas por parte de sus empleados, Google se ha comprometido este jueves a que sus avances en inteligencia artificial y su tecnología no será empleada para fabricar armas o para cualquier proyecto que tenga el objetivo de causar daño, según ha declarado el CEO de la compañía Sundar Pichai en el blog de la entidad.

Pichai ha alegado una serie de principios éticos sobre el uso de la inteligencia artificial, así como ha afirmado que Google no dejará de trabajar con el Ejército estadounidense en otras "áreas".

El pasado mes de abril, los empleados de Google se revelaron contra el proyecto Maven del Departamento de Defensa de EEUU, por el que estaría reclutando compañías de inteligencia artificial para incorporar su tecnología en zonas de guerra, como Irak o Siria. Unos 3.100 empleados del gigante de internet firmaron una misiva en la que pedían al consejero delegado de Google, Sundar Pichai, no participar “en el negocio de la guerra”. A raíz de entonces, una decena de trabajadores de la compañía dimitió como protesta por la implicación de Google en dicho proyecto.

Con el Proyecto Maven, EE.UU. pretende aunar IA de diversas empresas para analizar vídeos e imágenes capturados por drones. La IA de Maven se centraría en identificar 38 tipos de objetos que coinciden con los que el Departamento necesita detectar, especialmente en la lucha contra el Estado Islámico en Irak y Siria, y en rastrear personas que se desplazan entre distintos lugares.

Veta su tecnología para ciertos usos

El CEO de Google admite que una "tecnoloía tan poderosa" genera preguntas. Por eso, se compromete a no ceder sus algoritmos en los siguientes supuestos:

  • Tecnologías que causan o pueden causar un daño general.
  • Cuando exista un riesgo de daño material, "procederemos solo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas".
  • Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas.
  • Tecnologías que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas.
  • Tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos.

A pesar de estos principios, "queremos dejar claro que, si bien no estamos desarrollando IA para su uso en armas, continuaremos nuestro trabajo con gobiernos y militares en muchas otras áreas". Entre ellas, Pichar destaca la seguridad cibernética, capacitación, reclutamiento militar, atención médica para veteranos y búsqueda y rescate. "Estas colaboraciones son importantes y buscaremos activamente más formas de aumentar el trabajo crítico de estas organizaciones y mantener seguros a los miembros del servicio y a los civiles".

IA para "ayudar a personas"

"Estamos usando la inteligencia artificial para ayudar a las personas", ha expuesto Pichai en su declaración, recordando algunos de los proyectos para los que se está empleando su IA. Entre ellos, predecir el riesgo de incendios forestales, controlar la salud de los rebaños de los agricultores o incluso para diagnosticar el cáncer y prevenir la ceguera.

"Estos claros beneficios son la razón por la cual Google tiene mucha investigación y desarrollo, y hace que las tecnologías de IA estén ampliamente disponibles a través de nuestras herramientas y código fuente abierto.", añade.

Por eso, ha anunciado siete principios para guiar el trabajo de la compañía en el futuro que se traducen en "estándares concretos" que influirán "activamente" en las decisiones de investigación y desarrollo.

En primer lugar, beneficiar a la sociedad en campos en los que se incluye la atención médica, seguridad, energía, transporte, construcción o entretenimiento, respetando "las normas culturales, sociales y legales en los países donde operamos". también para "reducir los prejuicios injustos", especialmente en cuestiones "sensibles" como la raza, etnia, género, nacionalidad, clase trabajadora, orientación sexual y creencias políticas o religiosas.

Además, se compromete a trabajar por la seguridad y la protección para evitar "resultados no intencionales que creen riesgos de daño", a responder ante los ciudadanos, a incorporar "principios de privacidad" en el desarrollo y uso de las tecnologías de Google de IA así como de transparencia y control sobre el uso de datos.

A continuación, promete "mantener altos los estándares de excelencia científica para "desbloquear nuevos ámbitos de investigación en "dominios críticos" como la biología, la química, la medicina y las ciencias ambientales.

Por último, el CEO de Goolgle afirma que su tecnología estará "disponible para usos que estén de acuerdos con estos principios". "Trabajaremos para limitar las aplicaciones potencialmente dañinas o abusivas", ha expuesto. En este sentido, Google evaluará la finalidad y propósitos de quien quiera utilizar su tecnología, y su posible uso nocivo para la naturaleza.

De cualquier modo, ha proseguido el directivo, reconoce que "a medida que avancen las tecnologías de IA", Google se mantendrá abierta a todas las voces y conversaciones "recurriendo a enfoques científicamente rigurosos y multidisciplinarios".

"Y continuaremos compartiendo lo que hemos aprendido para mejorar las tecnologías y prácticas de IA", ha proseguido. Unos principios "consistentes con los valores establecidos" en la Carta original de fundadores quela compañía firmó en 2004.

Noticias

anterior siguiente