Enlaces accesibilidad
arriba Ir arriba

El chat GPT también contamina. Cuando se desarrolla la inteligencia artificial se necesitan grandes equipos con un enorme gasto energético, por eso existen ya grupos de investigadores que buscan algoritmos sostenibles, los denominados algoritmos verdes. Fue hace cuatro años cuando la investigadora de la universidad de A Coruña, Verónica Bolón, leyó un artículo que decía "que entrenar un modelo de lenguaje emitía tanto Co2 a la atmosfera como cinco coches en su vida útil y ahí fue la primera vez, que me di cuenta que la inteligencia artificial puede ser un agente contaminante". Bolón ha añadido que "esa idea viajó directamente desde mi cabeza a este laboratorio de la Universidad de A Coruña", dónde junto a un equipo de siete investigadores, trabajan para que los denominados algoritmos verdes se impongan ante los rojos. En el caso del chat GPT, la investigadora ha reconocido que "estos grandes modelos de lenguaje, su fortaleza es que han aprendido con muchisimos datos y para eso hacen falta super computadores que tienen un consumo energetico muy grande". Ahora, estudian hacer sostenibles los algoritmos en dispositivos pequeños, en contraposición a los más grandes.  En España ya existe un Plan Nacional de Algoritmos Verdes.

La Inteligencia Artificial ya forma parte de nuestra vida, aunque a veces no seamos conscientes. Está en la educación, la sanidad, los transportes o el cine. Y a veces resulta complicado distinguir entre IA o realidad.

Una foto del papa Francisco abrigado con un plumas blanco o una imagen del expresidente de Estados Unidos, Donald Trump, siendo detenido a la salida de la corte de Nueva York. Todas estas fotografías tienen dos cosas en común: podrían ser ciertas y nadie se extrañaría, y al mismo tiempo son falsas porque han sido generadas por Inteligencia Artificial.

Por ese motivo, cada vez más voces piden regular esta tecnología. En la mayoría de países no hay leyes específicas. La Unión Europea está elaborando un reglamento y quiere prohibir algoritmos que evalúen o clasifiquen socialmente a personas o condicionen su conducta y el reconocimiento facial, aunque con excepciones en casos de delicuencia grave.

Este miércoles el Telediario ha analizado los pros y contras de esta potente tecnología y ha mostrado cómo se están preparando en los países para hacer un buen uso de ella.

Todas las revoluciones tecnológicas han supuesto cambios en el trabajo, algunos empleos que se hicieron prescindibles por las nuevas capacidades de las máquinas mientras surgían otros nuevos más sofisticados. La pregunta es: ¿Qué impacto tendrá el auge de la IA en el mercado laboral?

Hace unos días, IBM anunciaba que dejará de contratar a casi 8.000 personas porque esas tareas las puede hacer con inteligencia artificial. El Foro Económico Mundial habla de 14 millones de empleos destruidos en 5 años (2%). Goldman Sachs calcula que la mitad de las tareas llevadas a cabo por humanos podrían sustituirse. En España, según la OCDE, el 11% de los puestos estarían amenazados.

Los robots han sido creados por los humanos para liberarse de trabajos más repetitivos y tediosos, y eso, en principio, es bueno, porque nos permite dedicarnos a otras cosas con más valor creativo. Pero también implica temor por cómo puede impactar en el mercado de trabajo.

En el Acuerdo por el Empleo y la Negociación Colectiva que han firmado este miércoles empresarios y sindicatos hace una clara referencia al impacto de la implantación de la inteligencia artificial. Piden que se incorporen medidas específicas en los convenios para que el despliegue de estas tecnologia esté controlado siempre por los humanos, sea transparente y seguro.

La Inteligencia Artificial está cada día más presente en nuestro día a día. Este miércoles el Telediario le dedica un espacio destacado.

En esta pieza seguro que han reconocido la voz de nuestro compañero Lorenzo Milá. El problema es que Lorenzo no ha tenido nada que ver con esta crónica. Un programa de Inteligencia Artificial tomó muestras de su voz y construyó esa narración.

El texto también lo ha escrito una máquina, por encargo del periodista de TVE Alberto Verdugo, le ha sugerido las personas que debían hablar y ha creado las imágenes fijas. Es una muestra de lo que programas muy sencillos ya pueden hacer, pero también de su potencial para manipular o simular cosas que no han sucedido.

Recientemente, un grupo de investigadores estadounidenses han conseguido que un descodificador traduzca el significado de lo que oye o imagina a partir de imágenes de la actividad cerebral. Sobre este asunto hemos hablado en 24 horas de RNE con Rafael Yuste, director del Centro de Neurotecnología de la Universidad de Columbia en Nueva York. Ha sostenido que esta investigación tiene más consecuencias positivas que negativas, ya que "la tecnología es neutra".

Las partes positivas, describe Yuste, descansan en conseguir que personas que no puedan hablar se puedan comunicar con el exterior; es un avance para los propios científicos como él que son neurobiólogos, o para la población en general, ya que puede ayudar a conseguir productos "de interfaces móviles conectadas con el cerebro". Sin embargo, esta investigación también puede desembocar en aspectos negativos. Por eso, Yuste quiso dejar claro su lucha por "instalar neuroderechos que protegan la privacidad mental de las personas".

Geoffrey Hinton es uno de los padres de la Inteligencia Artificial, pero a sus 75 años se baja del barco y ha decidido dimitir de su cargo en Google. Lo hace para poder alertar con libertad de los peligros de la velocidad a la que se está desarrollando esta tecnología, que puede generar grandes dilemas éticos.

Foto: GETTY