www.rtve.es /pages/rtve-player-app/2.11.0/js
4216962
Para todos los públicos El cazador de cerebros - La inteligencia artificial - ver ahora
Transcripción completa

Estamos en un momento histórico muy singular.

Nunca antes la ciencia había generado tanto conocimiento,

la tecnología innovaba tan rápido, ni nuestras vidas y sociedades

cambiaban tanto de una generación a otra.

Y lo que viene...

Esta temporada hablaremos de tecnología, "big data",

"internet of things", pero lo haremos

desde una perspectiva humanista y multidisciplinar,

con entusiasmo, pero también con cierta cautela,

escepticismo y una visión muy social.

Y, como no, empezamos en uno de los sitios

más emblemáticos cuando hablamos de tecnología:

Silicon Valley y la bahía de San Francisco.

Y lo hacemos con un tema que quizás es el más candente

en la ciencia actual: la inteligencia artificial.

En los años 40, el británico Alan Turing,

viendo las primeras computadoras capaces de hacer cálculos complejos,

se preguntó si una máquina podía llegar a pensar.

Fue el nacimiento del término "inteligencia artificial".

Desde entonces, los ordenadores y algoritmos de computación

han avanzado de manera abismal.

Pero aunque nos hayan ya superado en ciertas capacidades,

nunca pensamos que podrían alcanzar la inteligencia general humana,

con sus sutilezas, emociones y creatividad.

Hasta 2012, cuando el diseño de nuevos algoritmos

creó el "machine learning": máquinas que, como nosotros,

pueden aprender de errores y aciertos.

Esta nueva ola de la inteligencia artificial

se está infiltrando en todas las áreas

donde haya gran presencia de datos, desde biomedicina a economía,

industria o análisis del comportamiento humano.

Y esta vez sí amenaza con superarnos en capacidades

que creíamos exclusivamente nuestras.

Empecemos por una de las aplicaciones

más paradigmáticas de esta revolución

tecnológica-digital: el coche autónomo.

¿Llegará de verdad un robot inteligente a conducir,

entender su entorno, juzgar y reaccionar mejor que nosotros?

Intentamos que Google o Uber nos mostraran algunos modelos

de sus coches autónomos, "mails", llamadas, contactos,

y no hubo manera.

Lo tienen muy en secreto.

Pero encontramos un sitio donde algunos

de sus mejores ingenieros se juntan para competir.

Hola, me llamo Chris Anderson.

Bienvenidos a otro hackatón de Silicon Valley.

Este sobre coches autónomos.

En un hackatón se juntan programadores

y desarrolladores de "software" para, de manera colaborativa,

crear algo nuevo.

Hoy harán una carrera de coches autónomos,

diseñados por ellos mismos.

¡Cuidado! Estos coches no son teledirigidos.

Son coches verdaderamente autónomos que ven su entorno

y reaccionan ante él.

Todo tíos, ¿eh?

Todos funcionan con inteligencia artificial.

La idea es innovar en el mundo real

con tecnologías a pequeña escala,

para acelerar el proceso de innovación

y luego aplicarlo a coches de tamaño real.

Aquí las instrucciones no son: "Si ves tal, haz cual".

En lugar de eso, los coches aprenden.

Para ello cuentan con ojos, que son la cámara,

y empiezan a entrenarse.

Al principio del día, la conducción por la pista es manual,

pero al final del día las redes neuronales artificiales

El vehículo se pasa la mañana aprendiendo y la tarde, compitiendo.

¡Pronto aprenderán por su cuenta! ¡Ya lo hacen!

El problema es que aprenden chocando, y es un proceso largo y doloroso.

Este es el líder, el sensor clave, ¿no?

Este aparatito lo que hace es, a medida que va girando,

va lanzando rayos láser en diferentes direcciones.

Cada rayo láser viaja, regresa muy rápidamente

y él toma el tiempo de cuánto se demora

en hacer esa ida y vuelta.

Con este tiempo, velocidad de la luz,

sabe cuál es la distancia a la que está.

Y esto sería un modelo parecido a lo que tienen

los coches autónomos ya más sofisticados, ¿no?

Los coches autónomos en realidad no tienen una rayito,

sino una raíz de 16 rayitos. Ah, OK.

De tal manera que queda una visualización tridimensional

de todo lo que está a su alrededor.

Guau, esto es muy especial, por dos motivos.

Primero, porque es gente muy joven creando cosas que aún no existen

con una cultura de trabajo nueva.

Hoy es sábado, esto es un almacén, no hay horarios

y están compartiendo toda la información por Open Source.

Y, segundo, por la propia tecnología.

Los coches autónomos son como un paradigma

de esta integración de tecnologías que está generando

la nueva Revolución Industrial 4.0.

Son robots, robots muy sofisticados, pero que tienen como unos sensores

que les permiten conocer qué pasa en su entorno.

Muchos están conectados a internet, "internet of things".

Recogen información de la nube.

Integran todo este "big data" de datos de internet y de su entorno

en un "software" que va tomando decisiones inteligentes,

"artificial intelligence",

y que va aprendiendo, "machine learning".

Y todo esto para quizá sustituir algunos de nuestros trabajos.

O sea, hay implicaciones tecnológicas y sociales.

Las pizzas.

Me han puesto de pizzero.

Intentaré pasar sin que me atropellen.

¿Qué te motiva a hacer estos coches? Mejorar el tráfico.

Ya... Los coches son peligrosísimos.

Tengo un hijo que va a la escuela andando

y me preocupa que le atropellen.

Estaría bien saber que un ordenador detendrá el vehículo

si cruza la calle corriendo.

Lo que hacen nuestros ojos, ver, o nuestros oídos, escuchar,

en realidad no es tan complicado.

Un buen sensor o una cámara lo hace incluso mejor.

Pero entender lo que ocurre en el entorno,

eso que hace el cerebro, ya es mucho más difícil.

La visión por ordenador es un campo de la inteligencia artificial

que intenta hacer que las máquinas, el "software" o los coches autónomos

entiendan qué ocurre a su alrededor e incluso anticipen movimientos.

¿Podrán las máquinas comprender lo que ocurre en su entorno

con esas sutilezas incluso mejor que nosotros?

Vamos al verdadero origen, la semilla de Silicon Valley:

la universidad que más dinero genera a través de patentes de tecnologías:

Stanford, de donde salió la ciencia, los estudiantes y las empresas

que fomentaron la revolución digital.

Vamos a su departamento de Robótica e Inteligencia Artificial.

Soy Juan Carlos Niebles.

Soy Colombiano y me encantan la ciencia ficción y la robótica.

Estamos en un momento en que podríamos tener sensores

y pequeñas cámaras en todos lados, como en tiendas,

analizando el comportamiento de los clientes,

o incluso los coches autónomos, ¿no?

Pero estas cámaras tendrán que ser capaces de entender

lo que están viendo, y ese es tu trabajo, ¿no?

Sí, mucho de mi trabajo se encarga de tomar videos

y tratar de analizar el contenido del video.

Parte de ello es reconocer las actividades

y el comportamiento de la gente del video.

Esto tiene muchas aplicaciones, como las que has mencionado.

Temas de seguridad, quizá en lugares públicos,

donde es importante analizar el comportamiento de las personas

y avisarle a la autoridad cuando hay algún evento inusual

o algún comportamiento extraño.

Claro, tú ahora sabes leer mis expresiones.

¿Una máquina será capaz de intuir? Yo ahora intuyo qué estás pensando.

¿Una máquina podrá hacer eso?

La intuición es una cosa muy humana y es difícil dársela a las máquinas,

pero sí creo que podremos anticiparnos al futuro.

De pronto, que la máquina, cuando observe los eventos

que están ocurriendo en este momento,

sea capaz de anticiparse a lo que pueda ocurrir en el futuro.

Nosotros usamos muchas herramientas de un área que se llama

"aprendizaje de máquina",

y básicamente se dedica a tomar muchos ejemplos de entrenamiento.

En nuestro caso, pueden ser imágenes, videos...

Yo quiero que la máquina aprenda sobre cómo reconocer un vehículo.

Le muestro muchas fotos de vehículos indicándole:

"Esta parte de la imagen contiene un vehículo".

Hoy en día, las herramientas que usamos se basan

en el aprendizaje profundo, o "deep learning".

Y son herramientas que datan de un tiempo atrás,

basadas en tecnología de redes neuronales,

y que en los últimos años han tenido un gran avance

gracias a las nuevas herramientas computacionales,

la disponibilidad de datos...

Esto es como la nueva ola de la inteligencia artificial, ¿no?

Porque de inteligencia artificial ya llevamos décadas que había,

pero dicen: "Algo ha pasado en estos últimos años

que ha dado un salto cualitativo". ¿Es este "deep learning"?

Ocurrieron tres cosas simultaneas muy interesantes.

Por un lado, empezamos a construir bases de datos muy grandes

que permitían a los algoritmos aprender.

Estas bases de datos las construyeron personas

que se dedicaron a decidir,

en este millón o dos millones de imágenes,

estos son los objetos que aparecen. Es una tarea muy laboriosa,

pero a través de ella podemos enseñar a las máquinas.

El otro pilar fue el desarrollo de la computación.

El tercero es que los algoritmos de redes neuronales

han avanzado también y hemos conseguido que estas redes

aprendan de mejor manera con los ejemplos que les mostramos.

En este ejemplo quisimos desarrollar un algoritmo que utiliza

cámaras montadas en vehículos que están andando por las calles

y tratan de analizar el entorno, el contexto, para anticiparse

en caso de ocurrir un accidente en los próximos segundos.

Eso, para los coches autónomos, es totalmente relevante.

Eso va a ser crítico.

Digamos que si el vehículo está observando

que ocurre un accidente en su entorno,

puede tomar precauciones de seguridad

y salvar vidas, seguramente.

Todos estos algoritmos de IA los construimos

para el beneficio de las personas.

Es importante que las máquinas puedan entender a las personas

y que puedan trabajar para su beneficio.

Te refieres a las personas, a las compañías o a quien sea, ¿no?

(RÍEN) Tampoco vamos a ser aquí...

Seguimos nuestra aventura por otra universidad

de ideas fabulosas y pasillos cutres: Berkeley,

donde el gran experto en robótica Ken Goldberg

investiga cómo las máquinas se pueden comunicar

de manera inteligente entre ellas.

Goldberg es el creador del robot cirujano Da Vinci,

que ya está operando en muchos quirófanos del mundo,

incluido España.

Goldberg está convencido de que los robots nos ayudarán

en nuestros trabajos, pero no nos sustituirán.

Me llamo Ken y soy investigador

en el campo de la robótica y la inteligencia artificial.

Estas nuevas tecnologías tienen un gran potencial

para mejorar las habilidades de los trabajadores humanos.

¿Es este el cirujano del futuro? Sí, ¡en parte!

Pero la idea, y me parece importante recalcarlo,

no es sustituir a los cirujanos. ¡Claro!

Lo que queremos es mejorar la cirugía.

Son herramientas, herramientas más sofisticadas,

pero no sustituirán a las personas.

¿Por un tema de capacidad?

Bueno, cuanto más sabemos sobre los robots,

cuanto más intentamos construir sistemas de este tipo,

mayor admiración sentimos por las capacidades

de los seres humanos, como la percepción, la adaptación,

la destreza manual.

Se trata de problemas extremadamente complejos

y, aunque hemos avanzado bastante, estamos lejos de alcanzar

el nivel de capacidad que tiene el ser humano.

¡Vaya! ¡Qué interesante!

Estaba pensando que es algo decepcionante.

Tal vez por las expectativas que suscita la ciencia ficción,

pero la robótica no parece haber avanzado tan rápido

como muchos esperaban, ¿no? ¡Exacto! Es el principal problema.

El tema de los robots suscita mitos y miedos,

y la imaginación da lugar a muchas ideas

sobre lo que es un robot y lo que puede hacer.

¡Y estamos muy lejos de eso!

Y si pasamos del "hardware" al "software",

vosotros trabajáis con robótica en la nube.

¿Qué es exactamente eso?

Durante mucho tiempo, en robótica, siempre habíamos dado por sentado

que todas las tareas de computación y memoria

debían realizarse en el propio robot,

que debía ser un sistema autónomo.

Pero en los últimos 5 o 10 años, nos hemos percatado de que no,

de que en realidad el robot puede usar la nube

para acceder a grandes cantidades de memoria

y de computación remotamente.

De esta forma, los robots pueden empezar a compartir datos

y códigos entre sí.

Se consigue un aprendizaje colectivo en el que todo el sistema aprende

y los robots que adquieren una nueva habilidad

pueden compartirla inmediatamente con el resto de robots.

Muchos hablan del mercado laboral del futuro con temor, ¿no?

No creo, ni mucho menos, que estemos ante un apocalipsis.

Hay mucha robofobia.

Mucho miedo a que los robots vayan a dejarnos sin trabajo.

Sé que se comenta mucho en los medios de comunicación,

Algunos trabajos cambiarán, pero no hasta ese punto.

Los robots no arrasarán con nuestros trabajos.

Eso no va a ocurrir.

Al escucharte, parece que haya bastante exageración.

Me refiero a los que hablan de crecimiento exponencial,

de singularidad...

Sí, cuidado, cuidado.

Y digo que cuidado porque la singularidad

es uno de los conceptos a los que me opongo firmemente.

Creo que es un mito.

La singularidad, entendida como el momento de transición

en que los ordenadores aprendan por su cuenta

y sean más inteligentes que los seres humanos

y el futuro se acelere y los humanos sean obsoletos...

Eso no creo que llegue. No hay ninguna prueba que lo indique.

Tengo una alternativa, que me parece importante

como contraargumento: la multiplicidad.

Habrá un grupo de seres humanos y de máquinas

trabajando conjuntamente para resolver problemas.

Es algo que ya estamos presenciando. ¡No es ciencia ficción!

¡Toma!

La idea platónica es la que nos planteamos en robótica

cuando hablamos de agarrar objetos.

Tiene que ver con la física de las fuerzas,

del par de torsión, de la fricción...

Esta robótica lleva desarrollándose cientos de años,

aunque ha cobrado especial impulso en los últimos 50 años.

Pero no fue hasta hace cinco años que empezamos a adoptar

otro enfoque que viene de Aristóteles.

Se trata de examinar el entorno y aprender,

inferir modelos a partir de la experiencia.

Es interesante que tú, que eres un líder de este campo,

digas que los robots no nos sustituirán

porque no serán tan buenos como nosotros.

Cuando trabajas en este campo,

sabes perfectamente que los robots no son...

como en la ciencia ficción.

Casi inesperado.

Uno de los líderes de la robótica nos ha dicho que no hay para tanto,

que en cuanto a habilidad...

Quizás en fuerza, sí, y en precisión, también,

pero en habilidad no nos van a superar tan rápido

como muchas veces creemos.

La versión más dura de la inteligencia artificial dice

que si el cerebro es solo una combinación de neuronas

computando entre sí,

todo lo que hace un cerebro es replicable por una máquina.

En Berkeley, Sergey Levine enseña a las máquinas

a aprender por sí solas.

Pero ¿qué otras capacidades humanas podrá desarrollar

la inteligencia artificial?

¿Podrán tener emociones o moralidad o mentir?

¿Se tirarán un farol jugando al póquer?

Soy Sergey Levine. Trabajo enseñando a robots.

Antes me interesaban los videojuegos y trabajaba con ellos,

pero para hacer videojuegos realistas hay que crear

criaturas inteligentes. Es un problema

de inteligencia artificial, así que decidí trabajar

creando inteligencia artificial en el mundo real.

Gracias por recibirnos en sábado. Esto está un poco desierto.

¿Siempre trabajas en sábado?

Nos toca trabajar los fines de semana

porque adoramos lo que hacemos. Los estudiantes también están aquí,

pero ayer tenían una entrega importante.

¿Suelen estar aquí los sábados?

Sí, aunque les recomendamos tomarse una pausa de vez en cuando,

pero les encanta su trabajo. (RÍE) Qué bueno.

Les recomendáis que se tomen un respiro.

De vez en cuando.

Como ejemplo de inteligencia artificial tradicional

frente a la nueva inteligencia artificial,

¿podríamos citar el Deep Blue, los programas de ajedrez,

comparados con los programas de póquer o de AlphaGo?

Es una muy buena pregunta.

Los programas de ajedrez han tenido mucho éxito,

pero se basan en técnicas de planificación

bastante corrientes. Sí.

Mediante pura potencia computacional, barajan todas las posibilidades,

aplican cierta inteligencia para descartar las peores opciones

y analizan el resto para encontrar la que puede funcionar.

Aunque los programas de ajedrez son muy eficaces,

toman decisiones de forma distinta a las personas.

Por eso obtienen buenos resultados con el ajedrez,

pero no con juegos más intuitivos como el póquer o el Go, por ejemplo.

Los que sí han ganado en el póquer y el Go

se basan en pautas de aprendizaje, porque en esos juegos

no hay una estrategia que valga para toda la partida.

Hay que buscar pautas.

Y con algo como el bien y el mal,

¿habrá que darles instrucciones o las máquinas podrán aprenderlo?

A muchos investigadores también les preocupa ese tema.

Se trata de alinear los valores, de buscar la manera

de especificarle una tarea a un sistema autónomo

de forma que los objetivos fijados de antemano concuerden

con los valores que tenemos como seres humanos.

En esta investigación, el reto es observar a los humanos

e intentar descubrir cuáles son las cosas a las que damos prioridad.

(RÍE) Quizás no es siempre una buena idea.

A veces no es una buena idea, cierto,

pero quizá se pueda conseguir más observando a los humanos

que con un programa muy simple para especificar objetivos.

El aprendizaje por imitación en su forma más básica

tiene fines muy utilitarios:

decirle a la máquina qué queremos que haga,

pero a la larga puede ser fundamental incluir la idea de alinear valores,

de decirle a la máquina qué queremos que haga

con las limitaciones que queramos sobre seguridad, ética, etcétera.

En el campo de la IA, pienso ahora en las aplicaciones

en medicina o en energía limpia o incluso en economía.

¿Le hemos dado a todo esto demasiado bombo, exageración,

o realmente está a punto de llegar?

Lo de la exageración es un tema a plantearnos.

Creo que es importante darse cuenta de que las tecnologías

como la inteligencia artificial en cierto modo no funcionan

hasta que funcionan.

Siempre es muy difícil predecir cuándo llegará el punto de inflexión.

Todo parece exagerado hasta que ocurre y deviene real.

Por eso es tan difícil hacer predicciones, pongamos,

para de aquí cinco años, porque no estamos

ante una mejora gradual, sino una inflexión.

Ahora bien, es importante tener paciencia,

porque los sistemas de inteligencia artificial,

los que aprenden de la experiencia,

no tendrán tanto éxito en el laboratorio

como en el mundo real.

Con robots que aprenden a través de la experiencia,

si tenemos uno en el laboratorio que aprende, pongamos,

con 500 horas de su propia experiencia,

sus capacidades serán mucho menores que si construimos 1.000 robots,

los ponemos en 1.000 hogares

y aprenden de su experiencia colectiva.

Es importante tener paciencia con esta tecnología.

El propósito de este proyecto de investigación

es recopilar muchísimas trayectorias, centenares de miles de trayectorias

durante varias semanas, y luego introducir dichos datos

en un modelo de predicción por vídeo.

El objetivo es entrenar una red neuronal artificial

para predecir los siguientes tres o cinco segundos de vídeo

en función de la imagen actual. Ajá.

La idea subyacente es que, si el modelo de predicción por vídeo

puede predecir el futuro, los próximos tres o cinco segundos,

entonces la red neuronal debe de haber entendido

cómo funciona la física, cómo funcionan las interacciones,

y esto es exactamente lo que queremos que hagan los robots.

Queremos que el robot entienda lo que ocurre

y cómo funciona el mundo.

Queréis que entienda el mundo real pero también que anticipe

lo que ocurrirá, ¿no? Exacto, ese es el objetivo.

Imaginemos que dentro de cinco años voy por la acera

caminando con mi hija de cuatro y se aproxima por la calzada

un coche autónomo con un único pasajero.

Algo ocurre que, para evitar un accidente mortal,

el coche debe invadir la calzada y atropellarnos a mí y a mi hija.

¿Nos parecería justa esta decisión? Posiblemente, no,

y no querríamos que la tomara el coche autónomo,

pero, desde la perspectiva del conductor,

¿compraría alguien un coche que no le protegiera?

Es más, si la situación fuera más compleja,

casi impredecible, ¿dejaríamos que la máquina,

el coche autónomo, tomara esta decisión moral?

Me llamo Iyad Rahwan y soy de Alepo, Siria.

Me interesa la ética aplicada a la inteligencia artificial,

en parte porque creo que muchos humanos

son bastante poco éticos,

y espero que logremos algo mejor con la inteligencia artificial.

La inteligencia artificial plantea infinitos dilemas morales

que requieren un debate ético y social.

La iniciativa Moral Web Machine quiere saber la opinión de la gente

sobre cómo las máquinas deben tomar decisiones morales.

El coche autónomo es un muy buen ejemplo

para plantear escenarios controvertidos.

En caso de accidente, ¿a quién se debe proteger?

¿A una mujer antes que a un hombre?

¿A cuatro que cruzan en rojo o a uno que espera en la acera?

No tenemos respuesta para este tipo de preguntas,

pero la cuestión aquí es: ¿qué debería hacer el coche?

Puedes querer que la máquina no tome jamás esta decisión.

Pero, entonces, ¿qué debe hacer el coche?

¿Lanzar una moneda al aire?

¿Quién tiene que programarlo para que tome una decisión así?

¿El programador de la empresa automovilística,

el Gobierno, el comprador del coche?

Planteando este tipo de ejemplos y pidiéndole a la gente que decida,

intentamos recalcar lo importante que es el tema.

Si no le dices a los compradores que el coche siempre les protegerá...

¡Comprarán otro! Comprarán otro.

Quizá tengamos que programar todos los coches

para que se comporten igual.

La cosa también se pone interesante cuando planteamos dilemas

que implican la ley.

Por ejemplo, aquí tenemos un caso con personas que cruzan la calle.

Hay niños y un médico, pero cruzan con el semáforo en rojo.

Y hay más personas en el coche.

¿Nos centramos en salvar al mayor número de personas posible?

¿O en salvar a los más jóvenes?

¿O a los que no están infringiendo la ley?

¿O a los de aquí, aunque la infrinjan?

Queda patente que las dimensiones de la moralidad son muy complejas.

No hay una solución clara para este dilema.

No todo el mundo se pone de acuerdo en todos los escenarios,

lo cual refleja que el problema es peliagudo

y que debemos, como sociedad, planteárnoslo

y encontrar una solución aceptable.

Pero a la gente le resulta muy difícil aceptar

que sea la máquina quien tome la decisión,

incluso si demostrásemos que la máquina lo hace mejor.

Creo que es un problema psicológico que tenemos que afrontar.

La inteligencia artificial genera muchísimas incógnitas

que necesitan respuesta.

¿Pueden llegar los algoritmos a tener cualidades humanas

como la intuición?

Con las técnicas de hoy en día,

vemos que es muy difícil construir una máquina con emociones.

¿Cómo hacemos que el algoritmo esté feliz o triste?

Eso prácticamente es imposible.

Podemos simular o imitar, pero realmente no hay sentimientos

de la manera como los humanos los experimentamos.

Y, en lo emocional, ¿pueden aprender cómo sentimos los humanos?

Ni siquiera nosotros mismos entendemos

qué significa la inteligencia humana.

A corto plazo, lo que nos planteamos es:

¿podemos igualar las capacidades humanas?

Pero me parece apasionante es que, por el camino,

podremos entender un poco mejor qué significa tener inteligencia.

Quizá construyamos un algoritmo

que permita a un robot manipular objetos con destreza,

pero este algoritmo no podrá hacer otras cosas

que las personas hacen sin problemas.

Y eso nos dará información sobre nuestra inteligencia.

¿Debemos temer que los robots nos quiten los trabajos?

Es un chivo expiatorio.

Se culpa a los robots, pero así ha funcionado siempre.

Como los que culpan a los inmigrantes.

¡El robot es el inmigrante! Es el nuevo inmigrante.

Y todo esto ¿cómo lo regulamos legalmente?

¿Estamos preparados para participar como sociedad

en los debates que surjan en el camino?

Creo que hay muchos obstáculos por superar

antes de que proliferen los vehículos autónomos.

Y los más importantes son técnicos.

Tenemos que construir la tecnología que permita hacer frente

a todas las situaciones que pueden ocurrir en la carretera.

Esa es la parte más difícil.

Pero además están las cuestiones legales

sobre cómo regular esta nueva tecnología

y los retos psicológicos, sociales y culturales.

¿Cómo podemos hacer que la gente acepte esa tecnología

y confíe en ella?

La revolución ya ha empezado,

con implicaciones que iremos viendo durante el programa.

Algunos, los más jóvenes, ya se están preparando.

Vinimos a Silicon Valley y empezamos el programa

en un hangar de Oakland donde había estudiantes

que hacían coches autónomos

y lo terminamos en una feria espectacular.

Yo no había visto nada igual, nunca.

Es el espíritu de Silicon Valley: jóvenes inmersos

en la revolución científica y tecnológica

que realmente son los que van a crear el futuro.

El cazador de cerebros - La inteligencia artificial

12 sep 2017

¿Estamos preparados y somos conscientes de la revolución que viene? ¿Quién hay detrás de la inteligencia artificial y qué opinan de ella? Viajamos a San Francisco para conocer a los cerebros que están creando este futuro inmediato con creatividad e ingenio.

ver más sobre "El cazador de cerebros - La inteligencia artificial" ver menos sobre "El cazador de cerebros - La inteligencia artificial"

Los últimos 38 programas de El cazador de cerebros

  • Ver Miniaturas Ver Miniaturas
  • Ver Listado Ver Listado
Buscar por:
Por fechas
Por tipo
Todos los vídeos y audios

El administrador de la página ha decidido no mostrar los comentarios de este contenido en cumplimiento de las Normas de participación

comentarios.nopermitidos