Las profesiones del futuro.

5499159 www.rtve.es /pages/rtve-player-app/2.17.1/js/
Para todos los públicos La cuarta revolución - Episodio 4 - ver ahora
Transcripción completa

"La primera Revolución Industrial llegó con la máquina de vapor".

"Un siglo después, la producción en serie

y la electricidad protagonizaron la Segunda".

"Más tarde, con los ordenadores y las telecomunicaciones

llegó la Tercera Revolución".

"Y hoy, el avance de las tecnologías digitales,

físicas y biológicas está transformando el mundo".

"Asistimos a un tiempo fascinante

que está cambiando nuestra vida de una manera profunda

y creo que nadie debería quedarse atrás"-.

Soy Silvia Leal y te invito a entrar en "La cuarta revolución".

(Música animada)

Hace tan solo unos años,

una película narraba la historia de amor

entre un hombre y un sistema operativo informático.

Lo que entonces era ciencia ficción hoy es una realidad.

En China, un hombre se ha casado con su robot;

y, en Francia, una mujer afirma haberse enamorado del suyo.

Se meten en nuestras arterías, trabajan en las fábricas

y cuidan a nuestros hijos.

¿Debemos desconfiar de ellos o podrán facilitarnos la vida?

(Música animada)

(Música ambiental)

Pues me gustaría tomarme un té.

Tenéis té, ¿verdad?

Tenemos té con leche, "chai latte" y "matcha latte".

¿Y quién va a preparar mi café?

El café estará aquí.

Lo hace mi colega robot, que se llama Robin.

Me ayuda a preparar las bebidas y servirlas,

así que yo no me estreso.

Lo que yo digo es que nos gusta aumentar la productividad humana

con la automatización.

Abrimos en febrero de 2018.

Hace cuatro meses que yo trabajo aquí

y ya tengo una relación personal con Robin.

El código aparece en la pantalla 618.

Tienes que ponerlo aquí y tendrás tu bebida.

Si quieres más bebidas, aquí te dirá: "Este es tu 'latte'".

"Este es tu capuchino"...

No marcamos las bebidas.

Se te sirven así.

Tú has pedido un magnífico té "matcha latte".

¿Y ha perdido alguien su trabajo con la llegada de este robot?

Nadie ha perdido su trabajo.

Claro, de momento solo estamos en tres localizaciones.

Pero en el futuro la gente dirá: "Están quitándonos el trabajo".

Es lo mismo que con las grandes fábricas.

El caso es que aquí, en #cafex, trabajamos con las máquinas,

no esclavizamos a la máquina.

No trabaja para mí, los dos trabajamos juntos.

(Música animada)

"¿Son los robots capaces de leer nuestras emociones?".

"Y si pueden reconocerlas,

¿podrían llegar a tener sus propios sentimientos?".

"Esto es lo que investiga 'la computación afectiva'".

Silvia. Hola, ¿qué tal?

¿Qué tal?

Aquí, probando vuestro invento.

Muy bien.

Veo que has visto una de las "demos" del grupo.

Lo que hace esta "demo" es detectar las caras.

Está detectando puntos clave de tu cara.

Está viendo qué configuración tiene tu cara

y puede detectar sonrisas

y, por lo tanto, puede correlacionarlo con tu emoción

y reconocer tu emoción. ¿Tiene inteligencia artificial?

Sí, por supuesto.

Está entrenado con grandes bases de datos,

donde hay gente haciendo diferentes expresiones faciales,

entonces se sabe la expresión facial que está haciendo

en aquella determinada imagen o en aquel determinado vídeo,

entonces hay un algoritmo de aprendizaje

que lo que hace es aprender

cuáles son las configuraciones típicas

para poderlas reconocer en nuevos ejemplos.

¿Y se usa ya en algún sitio?

Sí, hay software comercial que hace esto actualmente,

y tienes aplicaciones.

Siempre que quieras monitorizar

la emoción de una persona, puedes usar este software.

Y si esto ya está, o incluso si hay aplicaciones comerciales,

Ágata, cuéntanos en qué estáis trabajando ahora.

Bueno, hay mucho más a hacer en esta dirección.

De hecho, yo trabajo en visión...

que es el campo que hay, o sea, la parte de inteligencia artificial

que se utiliza en esta "demo" es visión.

Lo que hacemos es hacer sistemas que puedan entender la información

que hay en vídeos o en imágenes.

Por ejemplo, reconocer emociones.

En lo que estoy trabajando yo ahora es en intentar ir un poco más allá

de mirar solo la cara,

es decir, una determinada expresión facial

en un contexto, en una situación o en otra

puede querer decir cosas diferentes.

Y nosotros interpretamos las expresiones faciales

de forma diferente en función del contexto de la persona.

Lo que yo estoy haciendo es intentar incorporar el análisis

de este contexto de la persona para entender mejor la emoción

que está expresando con su cara.

(Música animada)

¿Y qué es un robot social, que es donde estás trabajando tú?

Un robot social sería un robot que está,

por ejemplo, en nuestras casas y que podemos interactuar con él

a diario, que nos ayuda en algunas tareas

o que le podemos preguntar cosas.

Y que tiene con nosotros interacciones más o menos parecidas

a las que podemos tener otras personas.

¿Y por qué no hay más niñas estudiando carreras de ciencia,

tecnología...? Es una buena pregunta

y es un tema realmente preocupante.

La verdad es que no tengo una respuesta.

Desafortunadamente, tengo mis teorías de lo que está pasando.

Yo creo que las sociedad en general no contribuye a que las niñas

se animen a estudiar este tipo de carreras.

Por algún motivo hay una serie de estereotipos

que creo que llega un momento que hacen que las rechacen

porque no quieren ser catalogadas de un determinado tipo,

como las "frikis" que están encerradas

todo el día en el ordenador,

y parecen trabajos en los que casi no tengas interacciones sociales,

pero realmente la tecnología se puede aplicar...

para el bien de las personas.

"El término 'computación afectiva' fue acuñado en 1997".

"Desde entonces se ha convertido en uno de los campos punteros

de la robótica".

"Hoy, hablamos con su creadora".

Rosalind, te has inventado el término "computación afectiva".

¿Esto qué es?

Cuando creé el término "computación afectiva",

estaba pensando en cómo hacer que los ordenadores

fuesen más inteligentes.

Mi definición era la computación que se relaciona,

que nace y que, deliberadamente, tiene influencia en las emociones.

Y ahora mismo,

esta computación afectiva en qué punto está,

qué es capaz de hacer.

Hoy en día, la computación afectiva

se ha convertido en un área práctica

que se incluye en productos que ayuda a gente muy diferente

con diferentes tipos de aplicaciones.

Ayuda a la gente a entender cambios fisiológico

relacionados con el estrés, la ansiedad,

las funciones neurológicas

y a explotar lo que hemos aprendido

sobre las emociones que podemos medir

conectándonos a nuestro cerebro.

¿Y en estos momentos son los robots paces de leer nuestras emociones?

Ahora mismo los robots, las cámaras, los micrófonos,

si les dejamos, pueden detectar los signos de expresión corporal

de nuestras emociones, no exactamente como una persona,

pero de forma similar.

Pueden ver cómo tus cejas se levantan,

una sonrisa un asentimiento,

pueden ver que tienes una expresión escéptica...

También pueden detectar cosas que la gente no puede

si les dejamos.

Por ejemplo:

de un vídeo de tu piel,

pueden ver a qué ritmo late tu corazón.

La gente no puede ver eso.

Tenemos móviles cada vez mejores,

robots cada vez mejores,

y mucha gente que cree que el peligro

es que cada vez nos relacionemos menos con las personas.

¿Realmente corremos ese peligro

si los robots se desarrollan cada vez mejor,

con más emociones, más inteligencia?

Creo que es un miedo apropiado.

Me alegro de que la sociedad hable de ello.

Si interactuamos todo el rato con la gente a través del teléfono,

entonces la juventud que haga eso puede que no se sienta cómoda

con una interacción cara a cara.

Muchos de ellos ya no sienten cómodos a la hora de coger el teléfono

y hablar.

Creo que es importante que la gente no pierda sus capacidades,

su amplitud de banda,

que no pierdan la habilidad de leer tu cara

y entender por tu tono de voz lo que sientes,

incluso si estás diciendo otra cosa.

Muchas personas quieren que se pongan límites al desarrollo

de la inteligencia artificial y la robótica

porque tienen miedo.

¿Habría que limitarlo?

Normalmente no me gustan las regulaciones,

pero creo que a la hora de hablar de la inteligencia artificial

las vamos a necesitar.

Algunos de los pasos que Europa ha tomado,

sobre todo en relación con la privacidad de los datos,

son muy importantes.

Y los Estados Unidos tienen que hacer eso.

Necesitamos también que todo el mundo hable

de la importancia de los derechos humanos más que nunca.

Es muy importante que la gente no sienta

que las máquinas están vivas tomando el control,

porque no lo están. Eso es falso.

Es un mito que algunas personas han creado basándose en algo

tan poco científico como lo que sale en las películas.

Así que sabemos que las mejoras en las máquinas

las hacen las personas.

Aquellos más poderosos intentarán hacer máquinas

más poderosas que a su vez les den más poder sobre la gente.

Toda la sociedad necesita dar su voz y su opinión

y formar parte de este futuro.

Y no solo dejarlo en manos de los tecnólogos

y la ente de negocios.

¿En qué estáis trabajando en estos momentos?

¿Con qué sueñas?

En el Media Lab estamos muy interesados,

no solo en cómo ayudar a la gente a gestionar sus emociones,

sino cómo hacerles entender qué causa que su estado de ánimo

sea bueno o malo en el futuro.

Por ejemplo: la frecuencia del sueño

para los estudiantes en Nueva Inglaterra

está muy asociada con un buen o mal humor.

Cuanto más estrés y menos horas de sueño,

peor humor.

Y haciendo que la gente tuviese esta información

usando la tecnología de la computación afectiva,

y haciéndoles aprender sobre sí mismos

cómo estar de mejor al día siguiente y cómo estar menos estresados.

Esperamos que así podamos prevenir un declive

hacia un mal estado mental como la depresión.

(Música animada)

"Otro uso actual de los robots es el asistencial".

"¿Pero de verdad funciona?".

¿Qué tal? Hola.

Bueno, pues ya estamos aquí.

Estamos en un centro de día de Cáritas.

Este s nuestro edifico principal y sois muy bienvenidos.

Gracias. Yo vengo a ver a Hugo.

¿Quién es Hugo?

Hugo es un robot social que tenemos desde hace un tiempo.

¿Y qué hace Hugo?

Hugo aporta varias funcionalidades a los ancianos.

Pueden organizar mejor sus rutinas.

Pueden organizar su agenda

y Hugo se las recordará.

Pero además,

puede tener juegos en su pantalla.

Pueden hablar un poco con Hugo.

O hacer una llamada por Skype.

Te lo enseñaré.

¿Y qué piensan las personas mayores de la residencia sobre Hugo?

¿Le han recibido bien? Les encanta la tecnología.

Les encanta Hugo.

Reconocen los beneficios de la tecnología ahora

y en el futuro para todas las personas mayores.

(HABLA EN PORTUGUÉS)

¿Qué hacen con él?

Pues mira, nos saludamos, se da un vueltecita por aquí,

es muy amable y le llamamos Ambrosio.

Ambrosio.

El otro día pasó por aquí, le pregunté algo, y me contestó:

"Que no hablo español".

Y ahí ya me cortó.

¿Cómo es su personalidad? ¿Cómo dirían que es?

Muy seguro de sí mismo...

En fin, pues le encuentro muy bien.

Francamente, es una cosa increíble.

Sí.

Yo nunca pensé conocer algo así.

Tan vital que parece un ser humano.

Sí. Es fantástico.

Para nosotros ya, pues fíjate.

Quién me lo iba a decir a mí que iba a conocer al señor Ambrosio.

(Música ambiental)

¿Qué tal, Antonio? Hola, ¿qué tal?

¿Preparado para la entrevista? Sí, muy bien.

"Antonio Torralba, otro científico español,

lidera un equipo especializado en las capacidades cognitivas

de los robots".

"¿Qué pueden llegar a hacer?".

En estos momentos, ¿qué estás haciendo?

En estos momentos nos enfocamos mucho en...

varios proyectos, pero uno de ellos...

por ejemplo, cómo podemos construir máquinas que sean capaces

de ver información que el ser humano no puede ver.

¿Y cuál es el objetivo de una posible investigación

en esta área?

Por ejemplo, no de los problemas que estamos intentando resolver

es cómo podemos ver detrás de una equina.

Podemos ver si alguien se está escondiendo

detrás de una esquina, o si hay un vehículo que tiene...

que se acerca a una intersección

puede detectar que se acerca otro vehículo

o una persona detrás para poder frenar a tiempo.

Antonio, a mí me cuesta un poco entenderlo.

¿Me lo puedes enseñar?

Vale, mira, si quieres te hago una pequeña demostración aquí.

Esto aquí... y cojo este libro...

Para hacerlo muy claro, déjame usar la linterna del teléfono

para empezar...

Vale, imagínate que tú estás aquí y que hay una persona

que se encuentra detrás del libro.

En este momento, esta persona tiene una luz

y se está moviendo.

Puedes ver que proyecta una sombra.

El libro proyecta una sombra y a medida que me muevo...

esta sombra se mueve...

indicando en qué dirección se encuentra la persona.

Lo que pasa es que, en general, la gente

no emiten luz, con lo cual tú no vas a ver nada,

¿Qué pasa si la persona está caminando aquí detrás,

pero no lleva ninguna luz?

Aunque tú no lo puedas ver,

sigue habiendo aquí una sombra que se proyecta.

Es muy, muy tenue.

Pero podemos con un sistema artificial

amplificar esa señal de forma que se vuelve visible.

Con lo cual podemos ver

lo que se encuentra detrás de la esquina.

Déjame que te enseñe esta "demo" que tenemos.

Esto es un proyecto que llamamos... Corner Cámera.

Es un cámara que transforma las esquinas...

en una cámara.

Lo que normalmente sería una esquina vulgar y corriente,

la transforma en una cámara.

Venga, es esto, ¿no?

En este caso, lo que estamos viendo, es una traza temporal

de lo que se encuentra detrás de la pared.

Por ejemplo, si Manel empieza a andar detrás de la pared

Manel es el estudiante que ha realizado

como proyecto de tesis este sistema.

Si camina de un lado a otro,

lo que vamos a ver es una traza...

que indica que alguien se está moviendo de un lado a otro

detrás de la pared.

Aunque no podemos verlo directamente, sí que podemos ver...

que hay un serie de movimientos que van de un lado a otro

indicando que hay una persona...

que está caminando de un lado a otro de la escena.

Y si cambia la distancia a la que se encuentra de la esquina,

la señal se vuelve más intensa o menos intensa.

O sea, que esa rayita de ahí... eso es Manel caminando.

Este es Manel y aquí lo volvemos a ver.

¿Y por qué estás tan centrado en la visión y no en otros sentidos?

Una de la cosas que los humanos somos realmente fantásticos,

es en aprender a reconocer objetos

sin necesidad de que nadie nos enseñe lo que son.

Eso es algo que hoy los ordenadores no pueden hacer.

Los ordenadores son geniales para lo que te acabo de enseñar:

extraer información que es invisible al ojo humano.

¿Pero para el ser humano lo es más sencillo qué es?

Entender los objetos, entender la escena,

la estructura tridimensional del mundo que nos rodea;

lo que es la semántica del entorno en el cual vivimos.

Eso para los ordenadores es extremadamente difícil.

Y es en lo que estamos trabajando ahora.

¿Y tenemos que tener miedo a los robots?

Realmente, lo que me da más miedo no son los robots,

sino los seres humanos que les dan órdenes.

Los robots son tecnologías que están muy poco avanzadas,

aunque se oye hablar constantemente de los avances increíbles

de la inteligencia artificial,

pero como te puedes dar cuenta aquí no ay ningún robot.

Y... cuando vas a casa

no te encuentras con ningún robot recibiéndote, ¿por qué?

Porque aún no existen, aún no se pueden hacer.

Ni siquiera las cosas más sencillas

hemos conseguido reproducirlas de forma fiable

fuera del entorno de un laboratorio.

Antes de irme quiero ver eso de que los robots hay cosas

que hacen peor que los humanos,

y cómo les estáis enseñando a aprender como niños.

Vale, muy bien, pues si quieres te enseño otra...

otra "demo" que tenemos.

Silvia, te presento a Dave.

Es un estudiante de tesis aquí trabajando en el grupo de...

comprensión del habla.

Encantada.

"Nice to meet you". "Nice to meet you".

Lo que vamos a hacer es enseñarte el proyecto en el que estamos

enseñando a un ordenador a aprender a reconocer...

palabras y también imágenes

de la firma forma en que aprendería un niño.

Cómo puede ser que el ser humano aprenda de una forma tan sencilla.

Cuando hoy en día para entrenar sistemas artificiales

es necesario gastar muchísimo dinero

en anotar imágenes o conseguir datos

que estén extremadamente... limpios

si no, un ordenador no puede aprender.

Nuestro objetivo es desarrollar los algoritmos necesarios

para poder aprender de esa manera.

Si lo conseguimos, podremos construir ordenadores

que aprenderán de forma que no requerirá hacer una inversión

tan fuerte inicialmente.

Entonces, ¿lo que vamos a ver ahora podría ser un punto... clave

en el cambio en el que las máquinas aprenden?

Sí, realmente el sistema que vais a ver ahora

es la primera vez que conseguimos hacer un sistema

que es capaz de reconocer, de descubrir palabras

y objetos en imágenes de la misma forma

que lo hace un niño pequeño.

Podemos ver como Dave ejecuta el sistema

y te muestra un ejemplo.

Empezaré la descripción.

Veo una niña con pelo rubio y ojos azules.

Lleva un vestido estampado azul sobre un prado verde.

El faro tiene un techo rojo.

Aquí hay una montaña detrás de un campo

lleno de flores rojas.

La montaña parece que tiene nieve en su cima.

-Lo que veis aquí es el sistema, está escuchando a Dave hablar,

y a medida que oye las palabras,

está indicando qué parte de la imagen parece corresponder

a lo que Dave está hablando.

Y el sistema ha aprendido simplemente viendo muchas imágenes

y gente describiendo el contenido.

Y ahora Dave ha cogido esta imagen,

que no era parte de las imágenes

que hemos utilizado para entrenar al sistema,

y ha descrito lo que ve, y el sistema ha asociado...

lo que oye con lo que hay en la imagen.

Y ahora que esto ya funciona,

¿cuál será el siguiente paso de Dave?

Bueno, realmente ahora este sistema tiene...

una interpretación de la imagen muy sencilla.

Reconoce objetos, pero es incapaz de establecer,

de entender relaciones.

Por ejemplo, si le decimos que algo está más lejos

que otra cosa.

Los típicos ejemplos de "Barrio Sésamo"...

que se utilizan para explicar a un niño...

cerca, lejos,

qué quiere decir arriba, abajo...

Estos conceptos que la máquina no entiende

y este sistema tampoco.

Este sistema simplemente entiende lo que son objetos

y es capaz de identificar el faro con la palabra faro.

Pero hay ciertas palabras que el sistema

no ha podido aprender aún.

En este momento, el sistema sabe unas 200 palabras más o menos.

(Música animada)

"Si hay una empresa puntera en el desarrollo de robots en Europa

es Pal Robotics".

"Sus creaciones marcan el camino a seguir a muchas empresas

de todo el mundo".

Este es Tiago. Es un robot que combina

el poder moverse con sus ruedas por el espacio

con un brazo que permite manipular objetos

y ayudar a personas... y también la percepción.

Es decir, todos esos sensores incluidos estos ojos

ven todo lo que hay alrededor y reconocen objetos, caras...

Yo... si en un momento dado lo necesitase

y no supiera programar,

¿podría utilizarlo también?

Sí, es tan fácil como coger cualquier dispositivo...

Por ejemplo, una "tablet" o un móvil o cualquier cosa.

Te puedes conectar al robot mismo y, entonces, por ejemplo,

enseñarle movimientos.

Vamos a hacer un ejemplo, ¿vale?

Voy empezar a que el robot memorice...

los movimientos que tú le va a enseñar.

Ahora... puedes mover el brazo libremente.

Puedes cogerlo y verás... Anda, no tiene ninguna fuerza.

No, está compensando la gravedad.

Es decir, el brazo pesa unos siete kilos,

pero tú no notas nada porque el robot va compensando.

Vale, ¿ya estás?

Le damos a reproducir.

Y vemos el resultado.

A ver si es lo que tú le has enseñado.

Totalmente.

Sí, sí, sí.

Ahora os voy a enseñar un robot

que siempre está dando vueltas por la oficina

y también en tienda,

porque es un robot que está viniendo por aquí,

que es Stock Bock,

y lo que hace, básicamente, es contar inventario

en tres dimensiones en las tiendas.

Es decir, que no solo te da la lista de qué es lo que tienes,

sino también dónde lo tienes, cosa que permite rápidamente

que se está quedando sin stock, qué cosas están mal colocadas...

Y seguimos conociendo criaturas de Pal Robotics.

¿A quién tenemos aquí?

Tenemos a Rince, que es uno de nuestros bípedos estrella,

y se usa, básicamente, para investigación en universidades.

¿Y cuál es su reto?

¿Cuál es la mayor dificultad de un robot como él?

La mayor dificultad es la motricidad bípeda

porque nosotros andamos de manera natural...

de manera muy fácil,

pero estos robots tienen que aguantar el equilibrio

todo su peso...

Pensad que todos los componentes que tienen estos robots

no están pensados para entrar dentro un cuerpo así.

Pero aquí hemos conseguido resultados como este

ene e que el robot aguanta el equilibrio

mientras hace un baile bastante complejo

para ser un humanoide.

("Over the rainbow")

(Música animada)

Entonces, vamos a hacer ahora una prueba de equilibrio, ¿no?

Exacto.

Vamos a ver cuál es la reacción de un humano...

y de un robot... en un momento de posible pérdida de equilibrio.

Bueno, de momento...

He llegado a la conclusión de que mantener aquí el equilibrio,

al menos con tacones, es una cosa bastante complicada.

¿Entonces lo vemos cómo lo va a hacer un robot?

Sí, y quien mejor para contártelo que el director de la empresa,

que es Francesco. Hola, Francesco.

(Música animada)

Con este robot estamos...

llegando al estado del arte de la robótica

a nivel internacional.

Hay muy pocos robots en el mundo que tiene la capacidad que tiene él

como, por ejemplo, el hecho de sentir la fuerza.

Podemos mover el robot y el robot es capaz de sentir...

este tipo de capacidad, y entonces también podemos...

balancearlo de un lado a otro...

y él se autoequilibra más o menos como has hecho tú antes.

Pero con un poquito más de algoritmos matemáticos

para hacer que el robot pueda desequilibrarse.

Y tú has visto lo complicado que era.

En España y en muchos otros países,

tenemos un problema de envejecimiento de la población.

¿Hablamos de que nos podría proteger y podrá también cuidarnos?

Correcto.

El hecho que sea humanoide tiene que poder funcionar

en el mismo entorno que nosotros estamos todos los días.

Pues nuestra... manera de pensar la robótica

la robótica de servicio,

es para ayudar a las personas, mejorar su calidad de vida.

El hecho de que un robot pueda sentarse en la misma silla

que nosotros tenemos sin tener que cambiar nada

de lo que ya tenemos,

y que pueda sentir la fuerza que tú le estás aplicando.

Puede ayudar a un anciano a levantarse de la cama,

puede ir recogiendo cosas...

Entonces, sentir la sensibilidad en estas manos,

que, como veis, son bastante grandes, pero estamos trabajando en ello

para que se pueda reducir a todos los tamaños,

y que puedan ser robots cada vez más útiles

en entornos domésticos.

(Música ambiental)

Bienvenida a la planta de Nissan de zona franca.

Si quieres visitamos la visita por nuestra planta.

Veo un montón de maquinitas que se mueven sin parar...

de un lado a otro...

Bueno, pues estos son, precisamente, uno de los robots

que ahora son mas comunes aquí en la planta de Nissan.

Son robots autoguiados que, principalmente, los utilizamos

para todo el movimiento de piezas.

Sí, ¿pero quién los lleva?

Yo no veo a las personas

que están llevando todos estos aparatitos.

En este caso se mueven de manera autónoma.

Tenemos programados los recorridos que tienen que hacer

en la entrega de piezas

y ellos solos van moviéndose por la planta

y entregando las piezas en cada uno de los procesos.

¿Y son seguros? Sí, son muy seguros.

Van dotados de escáneres que detectan presencia de personas

y se paran.

¿Y aquí dónde estamos ahora mismo?

Estamos en la línea de montaje de ejes traseros

donde vamos a ver... dos tipos de robots:

el robot autoguiado que, en este caso,

ya no solo transporta piezas, sino que es nuestra línea de montaje

y un robot colaborativo con el que las personas

podemos estar trabajando simultáneo

sin ningún problema de seguridad.

¿Un robot que colabora con las personas?

Sí, es un robot que tiene la capacidad

de trabajar conjuntamente con las personas.

Por sus características de seguridad,

nosotros ahora mismo estamos en una zona segura

aun teniendo el robot aquí delante nuestro.

Tienes que comer más. Ya, ya.

Ya. Lo he parado. He parado el robot.

(Música ambiental)

Vamos a ver, Silvia, ahora una de las herramientas

que estamos utilizando ya de manera normal

en nuestro trabajo,

que es la realidad virtual.

Y en el caso de esta tecnología, ¿estamos frente a una herramienta

que sustituye la educación tradicional?

Es una herramienta que es un complemento,

pero que te facilita enormemente,

y además potencia la formación tradicional,

porque tú eres capaz de a una persona enseñarle las operaciones...

que tiene que hacer en el puesto real de trabajo

fuera de línea, en un entorno seguro, que aprenda bien las secuencias,

que aprenda bien los procesos

para que cuando luego venimos a la línea real,

esa persona pueda trabajar ya en ciclo

y de una manera segura y con calidad.

Yo esto lo voy a probar.

(Música clásica)

Te voy a dar los dos controladores: mano derecha, mano izquierda.

Entonces, la idea es... yo estoy dentro del plan de trabajo...

Estoy en un entorno 3D. Me puedo mover.

Si tú caminas hacia adelante... Sin miedo puedes caminar.

Te estarás moviendo. Si tú te giras sobre ti mismo,

te girarás;

si te agachas...

Entonces puedo chequear si llego, si tengo accesibilidad a un punto...

o si puedo realizar una tarea de manera segura

o, simplemente, si puedo realizarla.

Pero si ves lo que es la mesa de trabajo,

a tu izquierda,

vas a ver una pieza que está marcada en rojo.

Esa sería la siguiente pieza en la secuencia de montaje.

Ahí. Eso. Eh, ¿habéis visto?

Esta corta, ¿eh? Lo mantienes, te lo llevarías.

¡Ah, he cogido la pieza! ¡Ay, madre!

Tenemos un accidente aquí... Entonces, lo siguiente sería...

He cogido la pieza y la voy a llevar a la mesa de montaje,

y voy a acercarla... ¡Ay, que se me ha caído!

Ay, que me cargo la pieza... Aprieta el gatillo...

Ya está, ya la tengo. Vale, y tendrías que colocarla...

Una vez lo tengas posicionado,

nos va a marcar en verde la posición válida.

A la primera.

Pues ha sido toda una experiencia,

pero creo que mejor practico un poquito en casa también.

Con cuidado. Superrealista, ¿eh?

¡Guau!

Parece que estás dentro. Cuando sales de ahí,

te extraña estar en la fábrica.

Sí, lo bueno que tenemos aquí es ver el...

la propia célula de trabajo

y tienes justo detrás la real.

Además, es que se te hace raro... entrar ene este espacio.

Te acomodas tanto a ese otro, que dices:

"¿Qué hago aquí?". Pero bueno, muchas gracias.

Seguimos la visita. Muy bien.

Venga vamos. Vamos.

(Música animada)

Alberto, pero que se acaba de parar todo...

Pues sí, buena observación, y además es muy importante este parón

porque, precisamente, es uno de los descansos

de nuestros operarios dentro de la jornada productiva.

Cuando los operarios necesitan descansar

nosotros paramos las líneas

hasta que han tenido el tiempo necesario.

Sí, pero, a ver, los robots no necesitan parar a comer.

Bueno, pero las personas sí,

con lo cual las personas son una parte fundamental

de nuestros procesos productivos

y cuando las personas necesitan sus descanso,

nosotros paramos al línea.

O sea, una demostración de que aquí quien manda

siguen siendo las personas. Seguimos siendo las personas.

Pues me alegro mucho.

"¿Se dejaría usted operar por un robot?".

"Planteamos eta encuesta en la Clínica Cemtro de Madrid".

De ninguna manera.

No. Para nada.

La calidez humana eso no lo puede dar un robot.

Sí.

Porque pienso que la nuevas tecnologías es lo que...

está mandando ahora mismo en el mundo actual.

Y por supuesto que sí me dejaría. Por supuesto.

Sinceramente no.

Pienso que no están preparados para la cirugía humana.

"Sin embargo, en esta clínica,

ya hace tiempo que se opera con el robot Da Vinci

con unos resultados espectaculares".

Estamos aquí con un robot, Da Vinci,

que tiene el aspecto de un montacargas con cuatro brazos.

Un robot que va a operar con cuatro brazos,

pero tenemos un médico que lo maneja que tiene dos.

Exactamente. Sí.

¿Cómo funciona? A ver, el cirujano tiene dos manos,

pero en su mano izquierda a este nivel...

puede cambiar con una pedala...

de un instrumento a otro.

Puede usar un ayudante...

de menos porque hay una pinza...

que trabaja sola.

Es la ventaja de un robot con cuatro brazos.

Y entonces aquí y ahora, ¿quién opera el cirujano...

u opera el robot? El cirujano naturalmente.

El robot no hace nada sin el cirujano.

Es a través de la telemanipulación, no es realmente de la robótica.

Es de la manipulación con un instrumento ingenioso,

pero lo más ingenioso es el cirujano.

¿Pero te atreverías a hacer algo en mi mano, por ejemplo?

Sí, podemos pelar una uva si quieres. ¿Pelar una uva en mi mano?

Sí, sí, naturalmente.

Bueno, pues lo podemos intentar. Sí.

-Bueno, voy a cambiar de sitio con Richard.

Siéntate.

(Música ambiental)

Pon tu mano aquí.

Vamos a dejar un uva encima...

Y las tijeras al lado.

No te preocupes por las tijeras...

Verás que los instrumentos del robot

tienen la ventaja de que no transmiten...

el temblor del cirujano.

-Entonces, permiten una manipulación extremadamente delicada...

de los tejidos.

Eso que está haciendo él ahora veremos algo muy parecido cuando...

operemos a un paciente de próstata...

en el que es muy importante separar

los nervios de la erección, por ejemplo,

de la propia próstata.

Para que el paciente después de la intervención

pueda seguir teniendo sus relaciones sexuales.

¿Ves? Es una delicadeza... a la hora de manipular...

que no conseguíamos con la cirugía laparoscópica.

También es muy interesante que estamos viendo...

esta uva con una ampliación enorme.

Te das cuenta que en la pantalla

vemos los detalles más pequeños que queramos.

Y si queremos, podemos hacer un zoom.

De manera que podemos ampliar, incluso, más la imagen...

para ver con diez aumentos...

la uva, el tejido, lo que queramos conseguir visualizar.

Te das cuenta que es un movimiento muy delicado, ¿no?

Es una sensación de delicadeza, de suavidad,

pero al mismo tiempo ves las tijeras y te dan un poco de nervios.

Por suerte el paciente está anestesiado,

no se entera de nada y no se mueve.

Bueno, esto que está haciendo el doctor Gastón...

es lo que hacemos para aprender.

Es decir, que cuando queremos entrenar

nuestra habilidad como cirujanos,

tenemos un simulador...

virtual...

que son programas... de ordenador

que ayudan a operar en un entorno virtual,

pero también tenemos la oportunidad de usar modelos como este...

que es un modelo sencillo para desarrollar...

nuestras habilidades.

Para que cuando tengamos que enfrentarnos a un paciente real,

estemos entrenados.

¿Y él qué ve?

Él ve mucho mejor que nosotros en la pantalla

porque el robot tiene dos cámaras.

Una cámara recoge la imagen para el ojo derecho

y la la cámara para el ojo izquierdo de manera que...

él tiene una sensación de profundidad perfecta.

Puede ver en tres dimensiones.

Cuando operábamos con laparoscopia mirando un monitor,

el monitor es de dos dimensiones,

entonces era muy difícil estar seguro que donde ibas a poner...

el punto a la tijera iba a ser exactamente donde querías.

Es impresionante cómo está quedando la uva.

Es que está quitando la piel, ni un poquito de carne...

Bravo, ¿eh? Bravo, Richard.

Buah...

Vamos.

(Música animada)

"Los robots salvan vidas,

pero no solo en un quirófano,

también en otros ámbitos muy diferentes".

¿Qué tal? Hola.

¿Qué es AEROARMS?

Es un proyecto europeo del H2020

de innovación e investigación,

en el cual pues... participan diez socios,

instituciones, universidades, centros de investigación

y desarrollo y empresa,

de cinco países europeos diferentes

y que coordino desde la universidad de Sevilla.

Lo que pasa que este dron tiene algo muy particular,

que es que tiene como unos bracitos, ¿no?

Bueno, sí. El proyecto es de manipulación robótica aérea.

Eso quiere decir que... los drones no solamente

son capaces de tomar datos e imágenes,

sino de transportar objetos y de manipular.

Y ahí está haciéndose una demostración

de la planificación de movimiento.

Esto es un vuelo completamente autónomo.

El piloto no está haciendo nada, simplemente es de respaldo

por si sucede algo.

Entonces se planifican los movimientos automáticamente

para, en este caso, pasar...

Fíjese cómo ahora ha encogido y estirado los brazos

dependiendo de por dónde tenga que pasar,

y con ello pasa por una estructura que simula un estructura industrial

y, por tanto, es capaz automáticamente

de mover los brazos para pasar por la estructura

y ahora va a aterrizar y transportar esa barra.

¿Y vuestros drones pueden evitar accidentes?

Sí, el objetivo de la inspección y el mantenimiento,

tanto de plantas industriales como de las infraestructuras

es evitar accidentes.

De esa manera no se producirían, por ejemplo,

el que tuvo lugar en Alemania este verano,

y tampoco en la inspección de puentes por ejemplo,

accidentes como el que tuvo lugar en Génova.

Es decir, el análisis de la estructura,

en este caso, para determinar grietas,

o el de las... depósitos y tuberías

para que no se produzcan escapes,

es una de las funcionalidades de este proyecto.

¿Y aquí qué tenemos?

Bueno, este es un... dron industrial,

un manipulador aéreo industrial,

que tiene un diseño muy especial de tal manera que la fuerza...

que se...

con la que actúa en su extremo,

pasan por el centro de gravedad. ¿A ver?

¿Puedo hacerlo yo? Sí.

Y tiene unas ruedecitas aquí, ¿no? Sí, esto es para poder...

Esto es para la fuerza que hace poder presionar con el muelle

y mantenerse en contacto.

Por ejemplo, una vez que está en contacto con una tubería,

rueda sobre la tubería

y de esa manera mantiene unos sensores,

que esos sensores hacen que midan el espesor de la tubería.

¿Y los sensores cuáles son? Sí, aquí están.

Estos. Sí, en estos sensores...

o miden el espesor o detectan grietas...

Hay distintas configuraciones.

Y él se va moviendo hacia... donde el inspector lo va dirigiendo

para sacar, por ejemplo, en este caso,

sería la medida del espesor de la pared de la tubería

para ver si está corroída o no.

¿Y qué puede costar fabricar un aparato

de estas características?

Bueno, depende de las características concretas,

pero en cualquier caso podría andar por unas decenas de miles,

lo que es un coste muy reducido comparativamente

con lo que ahorra en una instalación.

Por ejemplo, hemos calculado que en una refinería grande

podría ahorrar más de 500 000 euros al año.

Con lo cual, creemos que es no solamente ventajoso

para evitar posibles accidentes,

sino que va a tener una importante repercusión industrial.

¿Entonces esto podría salvar vidas?

Sí. Como digo actualmente es necesario realizar

en una refinería grande decenas de miles de medidas al año,

muchas de ellas en sitios inaccesibles,

y para acceder es necesari, o bien poner andamios,

o bien descolgarse con cuerdas

y esos son también trabajos peligrosos en altura

que pueden originar accidentes.

Entonces, poder volar y realizar estos trabajos en altura

es algo que, de alguna manera,

una de las principales motivaciones del desarrollo es este sistema.

"Hace unos años se publicó que Amazon usaría drones

para repartir paquetes".

"Ese momento todavía no ha llegado".

"O sí. En Berkeley ya están repartiendo el futuro".

Hola, ¿qué tal? ¿Cómo estás?

¿Qué tal?

Bueno, tenemos aquí a Kiwi, ¿no?

Este es Kiwi. ¿Y qué hace?

Lo que hacemos es entregas de comida a toda la población de Berkeley.

Es un robot autónomo que través de sistema de inteligencia artificial

Configure Vision y Machine Learning,

navega a través de las calles de Berkeley

haciendo las entregas.

Tú descargas la aplicación en tu teléfono móvil...

Es la aplicación es KiwiBot

y ahí tienes toda una cartelera de restaurantes.

Cuando haces el pedido, ese pedido llega a nuestra central,

donde llegan los "kiwers", que son una parte fundamental

de nuestro sistema logístico,

que son personas que se encargan der hacer la carga de la comida

en los robots.

Después, estos robots una vez cargados,

se despliegan y van a hacerlas entregas al cliente en su casa

o en las salas de estudio de la universidad de Berkeley.

¿Qué tiene exactamente estos robots?

Tienen seis cámaras, tres sensores direccionales,

y estas seis cámaras lo que hacen es,

a través de tecnología de software,

identificar el medio ambiente.

Identificar la acera, identificar la calle,

las personas que caminan, las bicicletas...

Con esto identificado más un sistema de control normal,

con control de electrónica y control del motor y sus llantas,

este robot puede navegar a través de las personas.

El robot es capaz de tomar decisiones de hacia qué lado dirigirse o no.

Y entonces, este robot exactamente, ¿cómo funciona?

Porque tiene una cámara de comida, entiendo, ¿me lo puedes enseñar?

Sí, mira.

La parte del servicio como tal es esta parte que está en la cabina.

¿Se puede abrir? Claro, cuando llega a tu domicilio,

la aplicación teda la posibilidad de a través de un botón

a que abra automáticamente la tapa.

Esto es debido a que tenemos que transportar la entrega

de una manera segura.

¿Y por qué tiene ojitos si es un robot de transporte?

Bueno, es una pregunta superimportante

y es parte fundamental de creo que...

de lo que llevamos haciendo en nuestro registro estos meses

y esa... los robots tienen que dar...

una sensación de simpatía;

tiene que haber empatía entre los seres humanos y los robots.

Una manera de hacer esto es a través de... ponerle,

personificar la máquina.

¿Por qué hacemos esto? Para evitar ataques.

Es distinto cuando tú tratas a una máquina

como si fuera una mascota,

que cuando tratas una máquina

como algo que está invadiendo espacio público.

Gran parte la idea de tener ojos en el robot

es que cuando entre al ecosistema de la acera

pueda ser parte de él y no sea algo

tratado como algo distinto.

Evidentemente, hay una cuestión que tenemos que trabajar

es cómo podemos integrar a los robots en la sociedad

de una manera mucho más, digamos, que no tan disruptiva

para poder lograr un cambio positivo.

¿Cuál es ahora mismo el coste de un reparto normal

y cuál es el coste de un reparto con este robot?

Básicamente el coste de un...

de una entrega normal va...

entre los 9 o 10 dólares.

La hora hombre en California con vehículo...

es de 18 dólares la hora.

Y un ser humano puede entregar únicamente dos.

No más de dos Delibery por hora.

Con nuestros Bots lo que estamos haciendo

es reducir ese costo a cero.

¿Cómo lo hacemos?

Tenemos un sistema de humanos más robots.

Los humanos pueden hacer más entregas

en una hora con los robots que haciéndolo únicamente solos.

¿Y este robot contamina?

No. De hecho, este robot,

si comparas la contaminación que puede producir

un vehículo haciendo dos entregas

frente a la contaminación que puede tener este robot

que usa baterías y cinco Delivery,

realmente estamos reduciendo...

potencialmente más de diez veces la contaminación por Delivery.

¿Hacemos una prueba? Yo quiero ver cómo funciona

en vivo y en directo. Claro que sí.

Venga ¿qué vamos a pedir?

Quiero algo local.

¿Qué hay local? ¿Quieres algo local?

Sí. Okey.

¿Pues puede ser... sushi? Venga va.

En California... Sí.

...tenemos una comunidad asiática bastante...

importante.

Acabamos de ordenarlo a este punto.

O sea, ¿que nos lo va a traer aquí? Sí.

-Aquí.

Y le vamos a dar a "check"... ¿Un amigo de este?

Un amigo. -Un amigo.

Bueno, pues ya está, solo nos queda esperar

y comernos el "california roll". Así es.

(Música ambiental)

Tiene mucha atención.

Todos quieren ver cómo entrega su comida.

-Vienes acá y le das.

Y efectivamente... aquí llega...

nuestro "sushi california".

Un gusto. ¡Me lo llevo!

(Música ambiental)

"Y la gran pregunta:

¿podrán llegar a pensar los robots?".

"En caso de hacerlo, ¿cómo lo harán?".

"Hablamos con Manuel Cebrián, el creador de Norman,

el primer robot psicópata de la historia".

(Música ambiental)

Hola, Silvia, ¿qué tal? Hola.

Manuel, ¿de dónde eres? De Madrid.

Y estás aquí trabajando en dos proyectos

que a mí me fascinan, que son Norman y Bimi.

Cuéntanos qué es Norman,

Son dos proyectos que nacen con el espíritu de Halloween

para crear algo que a la gente le dé un poco de miedo,

pero que en el fondo sea inofensivo.

En el caso de Norman, pensamos que es el primer psicópata artificial

que se ha creado.

Es una máquina que ha sido entrenada solo con cosas horribles

que se escriben en Internet.

En particular, es una máquina que lo único que ha aprendido...

es un canal de "redit" que tiene muertes...

de lo más... terroríficas.

Solo ha visto violencia y el horror.

Lo que hacemos es le preguntamos a la máquina

qué opina de ciertas fotografías;

qué opinas de una foto de una familia;

qué opinas de una foto de un gatito.

Y lo único que hace Norman es ver...

no un gatito, sino un gatito descuartizado.

En una familia ve una familia decapitada.

Es de alguna manera ver cómo una mente enferma...

también puede crearse en una máquina y no solo en un ser humano.

¿Y cuál puede se el objetivo de un proyecto así?

El objetivo es concienciar a la gente de que...

conforme la inteligencia artificial va ocupando más áreas de la vida,

hay algunas de esas inteligencias que van a a estar con datos normales,

con datos variados de Internet, de las noticia,

y vana entrenarse para eventos cotidianos;

y otras máquinas que, por un motivo u otro,

van a, simplemente, ingerir datos que sean tóxicos.

Datos que tengan comentarios agresivos,

datos que sean... comentarios que sean machistas,

o sean comentarios racistas...

¿Cómo van a reaccionar esas máquinas

cuando la tengamos vigilando en un aeropuerto,

cuando estén vigilando a gente en Internet?

Pues si no están bien entrenadas y los datos son...

datos que son tóxicos,

las máquinas van a reaccionar de una manera tóxica.

¿Y me hablas ahora de Bimi?

Bimi es nuestro ultísimo proyecto

y en él consiste en Internet va a tomar control de una persona

que va a dar su libre albedrío,

lo va a rescindir por un día,

y simplemente va a hacer todo lo que Internet le diga.

Esa persona es un actor que lo va a hacer es...

llevar un equipamiento,

en el cual está recibiendo continuamente órdenes

de cientos de miles de personas en Internet...

y lo que hace es ejecutarlo.

Nosotros decimos crear una especie de yincana,

con lo cual la gente de Internet no solo dice chorradas

de "haz un café" o... "grita esto o salta",

sino que tienen que intentar llevar a esa persona

a través de esa yincana,

que la yincana tiene que tener una inteligencia artificial malvada.

Es solo una historia.

Y bueno, pues... es un experimento que...

que intenta como norma ver qué pasará cuando en el futuro

Internet esté tan metido en nuestras vidas,

que durante un día no hagamos nada que sea nuestra propia voluntad,

sino que sea lo que Internet nos diga que hagamos.

Y en base tu experiencia, ¿debemos tener miedo al desarrollo

de la inteligencia artificial sin limites?

No debemos tener miedo.

Lo que debemos de intentar ver es que todas las cosas

que ya existen en la humanidad no van a cambiar

simplemente porque tengamos esta inteligencia artificial.

Es decir, nosotros tenemos gente muy buena en el mundo

y gente que no es tan buena,

y lo que no hay que ser es muy optimista pensando...

que va a ser un mundo mucho mejor porque tengamos tecnología,

ni tampoco tremendamente pesimista y decir que va a ser el Apocalipsis.

Con estos proyectos lo que intentamos es resolver un problema nuevo,

pero demostrar que mientras resolvemos ese problema,

han pasado cosas inesperadas.

Y un poco darle un tono más gris a la tecnología,

que a veces es difícil encontrar

tanto en la academia como en la divulgación

gente científica.

Y háblanos de tus próximos proyectos.

Pues... nunca se sabe si se van a...

Nunca se sabe si se van a realizar o no.

Nos gustaría trabajar en una inteligencia artificial

que a la gente le ayudase a conectarse con el más allá.

No puedo decir mucho más de eso... ni cómo se va a hacer,

pero queremos hacer como una especie de médium

que sea de inteligencia artificial y estamos en ello ahora,

y, si sale todo bien, lo lanzaremos en un futuro Halloween.

"Como hemos visto ya están aquí,

entre nosotros".

"Con usos tan variados como podríamos imaginar".

"Desde trabajar en fábricas a cuidar de nuestros mayores".

"Pueden operarnos o servirnos un café".

"¿Y en el futuro,

conviviremos con ellos en igualdad de condiciones?".

"Han vendido para quedarse".

"Cada día son más y cuanto antes preparemos su llegada,

mucho mejor para todos".

La cuarta revolución - Episodio 4

54:59 01 feb 2020

Estamos en la era de los robots. Pero, ¿han venido para quitarnos el empleo? ¿Son nuestros enemigos? ¿O han venido para ayudarnos? Viajamos a San Francisco, Boston, Barcelona, Sevilla, Berkeley y Madrid para conocer los principales avances en el mundo de la robótica y sus efectos sobre nuestro futuro.

Estamos en la era de los robots. Pero, ¿han venido para quitarnos el empleo? ¿Son nuestros enemigos? ¿O han venido para ayudarnos? Viajamos a San Francisco, Boston, Barcelona, Sevilla, Berkeley y Madrid para conocer los principales avances en el mundo de la robótica y sus efectos sobre nuestro futuro.

ver más sobre "La cuarta revolución - Episodio 4" ver menos sobre "La cuarta revolución - Episodio 4"

Los últimos 6 documentales de La cuarta revolución

  • Ver Miniaturas Ver Miniaturas
  • Ver Listado Ver Listado
Buscar por:
Por fechas
Por tipo
Todos los vídeos y audios
  • Episodio 6

    Episodio 6

    54:04 pasado sábado

    54:04 pasado sábado En un país con una elevada tasa de paro, el avance imparable de las nuevas tecnologías es visto por muchos como una amenaza. Sin embargo, y paradójicamente, se están creando más puestos de trabajo que nunca.

  • Episodio 5

    Episodio 5

    52:31 08 feb 2020

    52:31 08 feb 2020 El ser humano está llevando, constantemente, su cuerpo al límite. La tecnología permite avances que nunca se habían visto: sensores por todo el cuerpo, entrenamiento cerebral, big data... Entrevistamos, también, a Carolina Marín, para conocer cómo el entrenamiento de un atleta de élite. ¿Llegará la tecnología a sustituir al talento?

  • Episodio 4

    Episodio 4

    54:59 01 feb 2020

    54:59 01 feb 2020 Estamos en la era de los robots. Pero, ¿han venido para quitarnos el empleo? ¿Son nuestros enemigos? ¿O han venido para ayudarnos? Viajamos a San Francisco, Boston, Barcelona, Sevilla, Berkeley y Madrid para conocer los principales avances en el mundo de la robótica y sus efectos sobre nuestro futuro.

  • Episodio 3

    Episodio 3

    50:15 25 ene 2020

    50:15 25 ene 2020 Somos datos. Todo lo que hacemos, genera un rastro, y aquel que sea capaz de analizarlo e interpretarlo, tendrá un poder increíble. Pero, también los datos nos pueden ayudar a vencer enfermedades como el cáncer. Viviremos y trabajaremos en ciudades, en casas y en fábricas inteligentes.

  • Episodio 2

    Episodio 2

    54:26 18 ene 2020

    54:26 18 ene 2020 Programa que nos explica las profesiones del futuro.

  • Episodio 1

    Episodio 1

    50:56 11 ene 2020

    50:56 11 ene 2020 Programa que nos explica las profesiones del futuro

Mostrando 1 de 1