www.rtve.es /pages/rtve-player-app/2.17.1/js/
4782938
Millennium - Los algoritmos - ver ahora
Transcripción completa

Bienvenidas y bienvenidos a este programa de televisión

en donde se habla de cosas más o menos raras

o de las que no se hablan en otros programas

y en otras cadenas.

Hoy vamos a hablar de algoritmos. Y ustedes dirán:

"¿De algoritmos?"

Sí, sí, de algoritmos.

Hace poco una de las revistas más inteligentes

que hay en el mundo, "The New Yorker",

publicaba un chiste en donde se veía a un sacerdote

casar a una pareja y el cura les decía:

"Que lo que ha unido el algoritmo no lo separe el hombre".

Y por ahí vamos a ir.

Si a ustedes el banco les dice que sí o que no

a un crédito no es el director de la agencia,

es la máquina que tiene el algoritmo

que dice si ustedes pueden recibir ese crédito.

Los algoritmos son básicos en nuestra vida,

al menos a día de hoy, y por eso les queremos dedicar

un programa. Bienvenidos a este "Millennium".

Así les veremos también nosotros con "Algoritmos".

(Músic

Este es nuestro segundo programa de la temporada.

La semana pasada hablábamos de infraestructuras

y hoy de algo tan extraño en un programa de televisión

como pueden ser los algoritmos.

Vamos a debatir sobre algoritmos.

Los invitados. En primer lugar, don Pablo Rodríguez,

doctor en Informática,

director de "Telefónica Innovation Alpha",

donde investigan y crean proyectos para afrontar los grandes retos

de la sociedad con tecnología pionera.

Acaba de publicar en la editorial "Deusto

este libro, "Inteligencia artificial.

Cómo cambiará el mundo y tu vida".

"La inteligencia artificial".

Usted dice que quiere que veamos la tecnología

de una manera positiva,

pero yo, de la primera conclusión

de esa voluntad suya

es ¿por qué lo dice? ¿Porque la tecnología

está considerada mal?

¿Porque vamos a salir malparados con la tecnología?

¿Por qué?

Porque la tecnología está aquí para ayudarnos a afrontar

grandes retos que tenemos enfrente, retos sociales,

pero también abrir nuevas oportunidades.

Transformará el trabajo, transformará nuestro día a día,

transformará industrias...

Y el resto está un poco en, nosotros como humanos,

qué vamos a hacer con ella.

Pasa en cada gran revolución industrial,

la inteligencia artificial está aquí hoy para quedarse.

Toca grandes partes de nuestra vida, desde que nos levantamos

hasta que nos acostamos,

es parte íntegra de...

De las empresas, de las oportunidades y...

Y de los nuevos negocios.

Y yo creo que esta revolución,

que ha empezado hace más de 25 años,

está aquí para, probablemente, crear una nueva sociedad,

de la que el hombre, el humano, tiene la capacidad

de definir su futuro.

Creo que estamos, en este momento, donde todavía el humano

tiene la capacidad de decidir el futuro que queremos.

Ya me gustará verlo, ya me lo explicará usted después,

cuando desarrollemos el programa.

El señor Carlos Bort,

científico de datos.

Eso es una... Un título nuevo para las tarjetas de visita, ¿no?

Cofundador de la consultora

de inteligencia artificial

"Xplore.ai",

competidor en datazones,

campeonatos de algoritmos,

una de las profesiones más demandadas actualmente.

De formación, economista y actuario.

Máster en Ciencias Actuariales y máster en Estadística

por la Universidad Politécnica de Cataluña.

Hay un libro que se encuentra en las librerías, en esas mesas

como entre la autoayuda y las novedades,

por decirlo de algún modo... (ASIENTE)

Que se llama "El algoritmo de la felicidad".

¿Eso existe? ¿Un algoritmo para conseguir la felicidad?

Al final, bueno, si tú pudieras definir

la felicidad matemáticamente

un algoritmo podría interpretar esa fórmula para ayudarte

a hacerte a ti más feliz, ¿no?

O sea, es una pregunta complicada, porque lo que hacen los algoritmos

es definir matemáticamente la realidad y entender los patrones.

¿Definir la realidad o integramos la realidad

en una fórmula matemática?

Exacto. Sí, sí, integrarla, como bien apuntas,

la realidad en una fórmula matemática, ¿no?

Al final, cuando un algoritmo entiende una imagen,

tú enseñas ese algoritmo, a ver, o cuando entiende el texto,

le enseñas a leer, entonces,

si pudiéramos ayudar a ese algoritmo a entender la felicidad,

nos podría hacer más felices, ¿no?

Y, como bien apuntas, ahora el científico de datos

es una de las profesiones más demandadas que hay en...

Que hay hoy en día, por la gran cantidad ingente

de datos a través del nuevo paradigma

de Big Data, ¿no?

Gran cantidad de datos, mucha capacidad de computación.

O sea, que a usted se lo rifan.

Humildemente, estamos en un sector de que hay más demanda que oferta

y estamos en una buena posición de oportunidades laborales.

Enhorabuena. No todo el mundo puede decir lo mismo.

Gracias por venir.

El señor José Luis Flórez. Bienvenido.

Doctor en Inteligencia Artificial y matemático,

experto en análisis de redes sociales,

responsable de inteligencia artificial

de "Mintside", la Unidad de Transformación Digital

de la empresa Indra

y CEO de "Dive",

una start up en la que el espectador

interactúa en tiempo real con los contenidos de televisión.

¿Sí?

Eso intentamos, sí.

¿Qué quedará de la vieja intuición humana

si dejamos todo en manos de los algoritmos?

Esa es una pregunta complicada.

Depende mucho del ámbito de aplicación de esa intuición.

Quizá uno de los ámbitos en los que mejor se conoce

el efecto de la inteligencia artificial

es en el juego del ajedrez.

Ha habido una trayectoria de algo más de 20 años

desarrollando máquinas cada vez más capaces de jugar.

Al principio, están muy distantes de lo que era la capacidad

de un gran maestro.

Cuando empezaron a estar más equilibrados

el argumento era: "Sí, pero no tienen una comprensión real

del juego y siempre queda un margen a la intuición del especialista,

del gran maestro para batir al programa.

Con el paso del tiempo lo que se demuestra

es que a mayor profundidad, en este caso, mayor profundidad

de cálculo, mayor fuerza bruta, hay otros ejemplos

en los que no todo se basa en fuerza bruta,

hay más identificación de patrones y otro tipo de enfoques,

pero lo que se ha visto es que sí llega a un nivel

de calidad en el juego que deja la intuición por detrás.

Entonces, la intuición posiblemente sea una rémora

de un entendimiento

difícilmente explicable, poco explícito,

de un fenómeno que nos permite tomar decisiones

que aunque no las sepamos explicar, son positivas,

pero que no se puede demostrar en estos momentos

que las máquinas no puedan llegar a superar esa intuición

en cualquier campo.

Doña Ofelia Tejerina, bienvenida.

Doctora en Derecho, máster en Derecho Informático,

especializada en las nuevas tecnologías,

profesora de la Universidad Rey Carlos,

en ICADE,

miembro del grupo de expertos en derechos digitales

que asesora a la secretaría de Estado

para el avance digital.

Pregunta muy directa, ¿gracias a los algoritmos

y al Big Data estamos siendo vigilados

por el Estado, por el Estado y las grandes corporaciones?

La única respuesta que hay es "sí".

Por supuesto que estamos siendo vigilados.

Estamos siendo controlados cada paso, cada movimiento,

cada pensamiento, cada gesto.

Todo eso interesa, esa información

es preciso almacenarla para conocer qué es lo que necesita la sociedad.

¿Qué necesita la sociedad? Esa es la gran pregunta.

Qué es lo bueno y qué es lo malo.

La diferencia entre el bien y el mal,

cómo el algoritmo puede ayudar a conseguir beneficios.

Desde el punto de vista legal que, lógicamente,

es el que a mí me preocupa,

¿qué pensamos cuando hablamos de leyes?

Pensamos en quién es el responsable

y quién va a tener consecuencias de esa responsabilidad.

¿Hay leyes que pueden, más o menos,

tener en cuenta las actividades de los robots?

Sí, existen normas que podrían ser aplicadas,

pero no a todo lo que nos estamos encontrando.

Son nuevas circunstancias que tenemos que analizar

y, sobre todo, saber a quién aplicar la responsabilidad,

que eso está siendo complicado, especialmente,

si hablamos de robótica, estos robots que aprenden

de forma autómata, que directamente observan comportamientos

y reaccionan en función de lo que van aprendiendo,

ahí nos encontramos con el problema de la responsabilidad.

Por culpa no puede ser.

Escribí hace tiempo un artículo. Se llamaba: "¿La culpa es del robot

o es del programador?"

Pero el programador no ha programado lo que está haciendo.

Lo está haciendo porque lo ha aprendido.

Eso ha ocurrido ya, ha habido experimentos,

Microsoft tenía un chatbot que tuvo que retirar inmediatamente,

porque aprendía a hacer comentarios racistas,

homófobos, y tuvo que retirarlo.

Ese aprendizaje es automático, pero existe también

la responsabilidad objetiva. Tú eres responsable, porque tú eres

el que ha creado esto.

Y estamos ahí intentando poner los límites.

Cuáles son los límites y el alcance de esa responsabilidad,

pero evidentemente, si no hay seguridad,

si no hay responsabilidad y si no buscamos el beneficio

de la comunidad nos estamos equivocando.

Me recuerda, yo no sé si ustedes la han visto hace poco tiempo,

"2001", la película de Stanley Kubrick

basada en la novela de Arthur Clarke,

en donde el ordenador, que es perfecto,

el HAL de la serie 9000,

empieza a fallar

y no está previsto que falle.

Y hay que desconectarlo

y el ordenador sufre, porque le desconectan

y no puede intervenir en los procesos.

¿Eso puede suceder?

Puede llegar un momento en que haga falta ese botón rojo

de apagado; de hecho, ya se está hablando.

Hay muchos debates en los que ya se menciona

"el botón rojo" para poder parar una situación crítica,

imaginemos un ataque, un hackeo a una infraestructura crítica,

que pueda poner en peligro vidas humanas.

Tiene que haber un botón que controle el funcionamiento

de ese algoritmo, las consecuencias finales.

Hay un libro de un criptógrafo muy famoso americano que se llama

"Haz clic aquí para matar a todos" y habla de la innovación.

Y él pide que, por favor, enfriemos un poco esta obsesión

por innovar, en favor de la seguridad.

Que es preciso parar un poco, reflexionar,

para poner más seguridad.

Ha pasado con la industria farmacéutica,

ha pasado con las investigaciones de genética.

Tenemos que poner límites, porque la tecnología

puede, prácticamente, todo. Estamos viendo que no hay límites,

que cada vez va más rápido todo, pero tiene que haber

un momento de reflexión,

porque el hecho de que sea tecnológicamente posible

y que sea cómodo para todos, "qué fácil me resulta todo",

no significa que vaya a beneficiarnos.

Las consecuencias...

¿Podríamos sustituir a Trump por un algoritmo?

Aquí hay dos visiones del mundo, cuando entra un cambio tecnológico

tan grande como el que estamos viendo ahora

que, probablemente, sea el mayor cambio tecnológico

después de la Revolución Industrial y que está aquí para quedarse,

y hay una visión apocalíptica, que nos vamos a convertir

en los próximos simios,

y que estamos dando a luz a la próxima...

A la próxima especie, y hay una visión apostólica

que te lo va a solucionar todo y que el dataísmo

va a ser el que nos va a resolver todos los problemas.

Yo creo que por el medio hay una visión más integradora,

donde se necesitan una serie de debates,

una serie de discusiones, entender donde la tecnología,

la inteligencia artificial, está previendo beneficios,

lo está haciendo en muchos campos, desde la medicina personalizad,

ayudar a un radiólogo a buscar un cáncer temprano

donde el ojo humano ya no ve.

Le está dando superpoderes.

A ser capaces de diseñar y planificar las ciudades

en situaciones muy complejas o ayudar a campos de refugiados

con información de la que antes no se disponía para parar pandemias

o para evitar problemas de seguridad.

Y con todo esto vienen retos, obviamente,

como con toda la tecnología, y retos y discusiones

que no hemos tenido antes. Yo digo que probablemente

una de las profesiones del futuro sea la filosofía,

porque son discusiones muy humanas, casi filosóficas:

si el coche que anda solo va a defender el...

El no estrellarse contra un ciclista que tiene delante

o proteger al pasajero,

es una decisión que es muy humana; de la misma manera

que cómo nos vamos a poner de acuerdo todos

para crear una transición en el mundo de la economía,

del nuevo empleo.

Y en esto, lo que vamos a ver es que científicos, economistas,

filósofos, antropólogos, sociólogos, van a tener que ponerse

de manera conjunta y tener debates como el que acabamos de tener

sobre la protección de los datos, de quién es la información,

y como lo que ha pasado en la Unión Europea con el GDPR.

Los datos deben estar más en control de los usuarios.

¿GDPR?

GDPR es la Ley de Protección de Datos de la UE.

Ya, ya. Hay veces en que ustedes...

Todos hemos recibido un montón de correos

en las últimas semanas diciéndonos que si por favor estas empresas

pueden seguir utilizando nuestros datos.

No me ha contestado a la pregunta.

¿Qué era?

Si podemos sustituir al presidente de los Estados Unidos

por un algoritmo.

Bueno, en ciertas facetas, y yo creo que gran parte

de nuestro razonamiento y de nuestras decisiones

ya están siendo reemplazadas por algoritmos.

El reto es si vamos a ser capaces de crear una inteligencia general

más allá de la que tenemos ahora, que hace unos algoritmos

que hacen cosas bastante básicas hoy,

que es reconocer patrones,

pero que el recorrido es muy grande todavía.

-Sí, al final,

cuando tú tienes todos los datos de tu población, al final

el presidente de Estados Unidos, en este caso, Trump,

muchas veces se apoyará en algoritmos.

Actualmente se apoya en algoritmos con un poco de trampa

para ganar las elecciones, eso es el escándalo

de "Cambridge Analytica",

pero cuando tienes todos los datos de tu población,

lo que dicen en redes sociales, de qué se quejan,

tú puedes hacer una mejor política, ¿no?

O, por otro lado, el otro lado de la moneda,

tú sabes lo que quieren y quieren que pienses como tú,

como tu administración,

pues le bombardeas con lo que sea en las FEG News,

que es un tema de quién puede ser responsable

y es uno de los cambios que está pasando

en el tema de Facebook.

-Sí, yo... Volviendo a la cuestión del botón rojo, que...

Que es interesante, cómo se puede poner control

sobre algoritmos cuando estos empiezan a tener

un resultado ineficiente.

Es complejo y es complejo por una paradoja también,

y es que cuando tienes una proliferación de algoritmos

para diferentes temáticas, diferentes situaciones,

el mejor sistema o el único, probablemente, para poder tener

un control sobre cuál es el grado de precisión,

lo que están aportando cada uno de ellos,

probablemente también es un algoritmo.

Es el algoritmo el que controla otros algoritmos.

Incluso en ámbitos cercanos a nosotros y muy cotidianos,

el de ir al médico, recibir un diagnóstico,

no estamos lejos y en algunos casos estamos ya ahí

en situaciones en las que el análisis

de todo lo que es el histórico de un paciente,

toda su información genética, la de sus parientes

y posiblemente propensiones a ciertas enfermedades,

medios de diagnóstico, hacen que sea más preciso

el diagnóstico que vamos a obtener de forma soportada por un algoritmo,

que que puede dar un médico.

No es tan sencillo el botón rojo, en el sentido de cuando tú

estás teniendo microdecisiones, decisiones a nivel de la vida

de cada persona, que tienen que ver con un diagnóstico

en el cual está demostrado empíricamente

que el diagnóstico de algoritmos supera al del profesional

o permite mejorar el diagnóstico que el profesional puede hacer,

claro, no es una cuestión tan 0-1, tan digital,

tan binomial como decir: "Oye, apago, enciendo".

Realmente tiene bastante más complejidad,

que es lo que hace que realmente haya que incorporar

capas bastante más sofisticadas de control.

-Yo creo que si vamos a sustituir a Trump por un algoritmo

que actúe de forma similar deberíamos tener un botón rojo.

No podemos permitir que un algoritmo sea lo que tiene más poder

para gobernar el mundo y para manipular la realidad,

porque no sabemos si la realidad programa el algoritmo

o le da forma al resultado que vamos a obtener,

o si es el algoritmo el que acaba manipulando

nuestra realidad, que al final es lo que estamos viendo

con los FEG News.

Tenemos que pensar que sustituir un cerebro humano no es fácil,

por la inteligencia artificial, al menos, no hoy, con algoritmos.

Sí que es cierto que todo esto avanza a una velocidad

que no sé lo que va a pasar de aquí a 30 años, vaya usted a saber

quién puede estar aquí sentado hablando de leyes

o resolviendo en un juzgado. Habrá que ver la evolución.

Pero es difícil, porque el humano tiene una especial sensibilidad

a la ofensa, cada uno somos diferentes,

tenemos una sensibilidad a las cosas buenas

muy diferente a las cosas malas, depende de dónde vivamos,

simplemente, por la educación cultural.

Todo eso, que es verdad que se pueden generar patrones,

reducirlo a un algoritmo con sentido común es imposible

o, al menos, es mi opinión hoy. No sé qué pasará de aquí a mañana.

Un algoritmo con sentido común creo que todavía

no se va a poder conseguir. Es más, ayer...

Hace unos días se han aprobado unas normas en Europa,

entre las que ya se incluye, para un sistema de reclamaciones,

después de un algoritmo controlando contenidos,

el que quiera reclamar por ese resultado

tiene que tener la posibilidad de contar con una revisión humana

y la norma europea, la directiva, lo dice expresamente,

que tiene que haber una respuesta humana

detrás de las quejas; con lo cual, que una norma europea ya prevea

que tiene que haber una opinión humana,

que no se deje todo a la automatización

ya es muy significativo del nivel que tenemos hoy de tecnología.

Me parece muy claro. Vamos a nuestro video,

porque aparte de la opinión de nuestros cuatro invitados

hay otro más, que es el secretario de Estado

para el avance digital, Francisco de Paula Polo.

"Navegar por Internet, subir una foto en Facebook,

son gestos habituales del día a día."

Acciones cotidianas como responder un tuit o hacer clic

en un "Me gusta" son acciones perceptibles

de generar un dato y esos datos, apoyándose en algoritmos,

pueden convertirse en predictivos, es decir, generar un modelo,

un patrón. Son las grandes empresas en Internet las que disponen

de esos datos, porque se los hemos dado

a veces casi incluso sin darnos cuenta

a cambio de servicios que se presentan como gratuitos,

pero que en realidad no son gratis, porque estamos pagando

con nuestra información personal.

"Hay una industria poderosa alrededor del uso masivo de datos

y de su análisis a partir de algoritmos,

por eso, desde la secretaría de Estado para el avance digital

abordan este tema como uno de los grandes retos

que deben afrontar."

Es una realidad, que existe ya una economía de datos,

de datos que son de la persona y que decide ceder

su tratamiento para un uso muy concreto.

Eso es importante que lo recalquemos.

Para el tratamiento de esos datos, de la información que compartimos,

muchas empresas utilizan algoritmos

y es fundamental que entendamos que los algoritmos son instrumentos

que no son neutros. Todos tienen un sesgo,

tanto en el momento de recoger la información

como en el momento de mostrarla al usuario.

"Tendemos a pensar en los algoritmos como algo neutral y objetivo,

pero en realidad estas fórmulas empiezan a guiar nuestras vidas.

Lo hacen cuando nos sugieren una compra en Amazon,

pero también cuando recomiendan a los mejores candidatos

para un puesto de trabajo."

Lo que tenemos que conseguir es mediante la transparencia

que esos sesgos no afiancen brechas de género, por ejemplo,

o generen disociaciones entre grupos de la población,

mostrándoles contenidos que están... Que generan mucha oposición.

Lo que necesitamos ahí es una mejor protección

de la privacidad, de la intimidad en las redes sociales,

hacernos conscientes, pero aparte darnos derechos

para ejercitarlos ante las grandes empresas

para poder recuperar o cancelar nuestros datos personales

o, por ejemplo, otros derechos que ya han sido articulados,

como el derecho al olvido.

Ese va a ser el límite a la revolución digital,

porque nunca una revolución digital puede pasar por encima

de las personas.

"A día de hoy es un algoritmo el que determina la jerarquía

de contenidos que vemos en Internet

y gracias a estas fórmulas se están tomando decisiones

sobre nosotros sin contar con nosotros.

Por eso, a medida que aumenta su uso crece el debate

sobre hasta qué punto condicionan nuestra visión del mundo."

Tenemos una nueva realidad en el siglo XXI,

que es esta revolución digital, y la responsabilidad

de cualquier gobierno es adaptarnos a esas realidades

para tener una nueva lista de derechos, en este caso,

derechos digitales, que nos permitan enfrentarnos

como individuos y como estados a esta nueva realidad.

"La economía de datos,

con sus pros, pero también con sus contras,

exige un nuevo enfoque. El reto no es menor.

¿Qué papel juegan los algoritmos en nuestra vida diaria?

¿Somos esclavos de fórmulas matemáticas?

¿O son un instrumento para mejorar nuestra vida?"

Cuando preguntamos a veces:

"¿Puede usted ponerme un ejemplo de algoritmo?"

La respuesta es una receta de cocina.

Eso es un algoritmo. Bueno, más o menos, es un algoritmo.

Pero me parece que es un ejemplo corto.

Yo creo que deberíamos ir un poco más allá

y ustedes me podrían contar algunos ejemplos más claros,

aparte de la receta de cocina,

de en qué consisten esos algoritmos que se utilizan

en nuestra vida cotidiana.

Por ejemplo, en el entorno digital,

los algoritmos empezaron en el entorno digital,

podemos ver algoritmos de recomendación de Amazon.

En base, lo que yo veo y los datos que tienen de mí

me recomiendan las cosas que consideran

que son mejores para mí.

Y eso les produce un mayor índice de compra

y un beneficio de la empresa.

Simplemente lo hacen porque produce un beneficio

para la empresa.

Entonces, estos algoritmos de recomendación de compras

suelen ser más agradables para el público en general.

Cuando ya pasamos a algoritmos que, a través de tus datos

en Facebook te conocen mejor que a ti mismo,

esto es una entrevista que tuvo hoy Yuval Noah Harari

de "Sapiens":

"Ostras, si me conocen mejor que mí mismo

y me pueden decir cosas, me incitan al odio

o al cambio de opinión, entonces ahí tenemos

una visión negativa del algoritmo.

Y al final estos algoritmos es una nueva revolución tecnológica,

una re...

Como pudo ser la energía atómica, hablamos del botón rojo;

o sea, podemos hacer bombas atómicas o podemos hacer

centrales nucleares que den mayor energía;

con el tema de la química, podemos curar a más personas

o hacer armas químicas;

con el tema de Internet, podemos conectarnos mejor

para ser una mejor sociedad o podemos hacer datos delictivos

a través de ella.

Me lo ha puesto usted muy fácil, pero yo hace unos días

escuché una cosa que me llamó mucho la atención,

o sea, que no es mía, y es la diferencia que hay

entre Amazon y "Mamazon",

porque el comentario era que "Mamazon",

lo que te da una madre, siempre es desinteresado;

en cambio, lo que te da Amazon siempre tiene

un interés económico detrás

para el dueño de Amazon, ¿no?

(ASIENTE)

Y ahí estamos siempre con esa discusión

sobre si son buenos o son malos...

Sí.

Las fórmulas matemáticas y demás, ¿no?

Sí.

-No, lo que está claro es que cuando miras la televisión

la televisión no te está mirando.

Cuando lees un periódico o lees un libro

el libro y el periódico no te están mirando.

Cuando estás en Internet te está mirando,

a ti y lo que están haciendo tus amigos.

Y es verdad que en el mundo digital ya no vale todo

y cada vez se está demandando más tener una ética,

tener unos valores y tener unos principios,

porque estos algoritmos, y la inteligencia artificial,

cada vez están tomando más decisiones por nosotros.

Yo no le veo tanto los límites a la inteligencia artificial

en temas de si va a tener sentido común o no;

yo creo que va a llegar, ya lo está haciendo,

en temas tan humanos como la creatividad,

ayudando a cocineros, hablando de la cocina,

a encontrar nuevas combinaciones de ingredientes

que antes no existían, para crear un plato nuevo,

encontrar a un entrenador de fútbol,

examinar miles de jugadas y estrategias

para poder ganar un partido

o a un médico, ayudarle a identificar

una enfermedad temprana, que puedes actuar en ella

e intentar prevenirla.

¿Cómo se llama eso en dinero?

¿Cuánto cuesta saber lo de una enfermedad temprana?

Hay varios programas, hay "23andMe",

"23 y yo", que es un programa de genética,

hay un hospital en San Diego, el Hospital de la Longevidad,

que a través, mezclando datos de ADN,

mezclando datos de otros pacientes y con un análisis médico

son capaces de identificar de manera temprana

si puedes desarrollar parkinson, cáncer o tener un problema

de corazón y, a partir de ahí,

poder desarrollarlo, pagas, parte con tus datos,

y otra parte lo pagas con dinero.

Y el programa, el "23", que me ha hablado usted

hace un momentito...

El "23" a mí es un... Es por suscripción.

Es un programa de suscripción. Pero lo que está claro

es que no hay nada gratis

en este mundo.

Si no eres... Si no eres el cliente, eres el producto.

Está bien visto: "Si no eres el cliente,

eres el producto".

Deberíamos ponerlo

como titular del programa.

"Si no eres el cliente, eres el producto".

Pero para eso están las leyes, para intentar ni ser el cliente

ni el producto; tal vez el proveedor del servicio.

Yo soy proveedora de datos, soy proveedora de comportamiento,

soy proveedora de ideas, pero no soy el producto

y tengo derechos, se han citado los derechos digitales,

y tienen que ser respetados y para eso están las normas.

¿Usted piensa lo mismo?

Sí, absolutamente. Yo creo que es una cuestión...

También es cierto que la posición de Ofelia,

que comparto absolutamente, tiene que ver con el estado

de desarrollo actual de la tecnología, ¿no?

Porque es cierto que cuando planteamos

hasta donde llega, que era la pregunta de antes,

hasta dónde puede llegar la inteligencia artificial, ¿no?

Si puede sustituir a un Trump o cualquier otro enfoque

que queramos pensar,

yo creo que está bastante extendido hoy por hoy

y no era así a lo mejor hace 10 años,

que es una cuestión de tiempo.

Que no hay un límite a lo que es el nivel

que puede alcanzar la inteligencia artificial,

que tenga que ver con una imposibilidad teórica.

En los 90 se hablaba, había dos posiciones

y había una controversia importante, había una posición

que defendía, por ejemplo, un ingeniero como Ray Klutbail,

que habla de la singularidad y de cuando la máquina

llegara a tener una capacidad similar

a la del humano, incluso de toda la humanidad,

que planteaba que con la tecnología actual,

con la base de la tecnología actual, eso era una cuestión de tiempo

y que no había limitaciones. Y había una posición más romántica

del profesor Penrose, que es profesor de Física Matemática

en Oxford,

que argumentaba que ciertas capacidades cognitivas

estaban limitadas al cerebro humano por cuestiones que tenían que ver

con comportamiento a nivel cuántico.

Cada vez más parece que muchas de las varas que se van poniendo

en cuanto a limitaciones de la inteligencia artificial,

van cayendo una tras otra.

Eso, desde el punto de vista práctico

del día a día lo que significa es que la velocidad

a la que la legislación y la protección de los derechos

del ciudadano tiene que evolucionar es constante. Muy rápida, ¿no?

Porque la tecnología está evolucionando

de forma claramente exponencial.

-Hablamos de la evolución de la tecnología,

hasta dónde va a llegar y creo que la cuestión es importante,

con qué nos vamos a enfrentar en el futuro,

el poder predecir o prevenir, porque la seguridad jurídica

se sirve de la predictibilidad de las situaciones,

porque si no sabemos qué resultado va a haber en un juzgado

podemos entender que la ley se aplica de esta manera,

vamos a estar en una situación absoluta

de inseguridad y no saber por dónde actuar.

La pregunta no es tanto hasta dónde va a llegar

la tecnología, sino qué le vamos a permitir.

Yo me he encontrado, es la última novedad de Facebook,

Roseta, que se llama así el algoritmo que han implantado

para seleccionar la información, que creen que para mí

es demasiado dura, entonces, me filtran la información.

Yo abro mi muro y veo una foto borrosa que pone:

"Hemos eliminado esta fotografía, porque creemos que puede herir

tu sensibilidad. Pulsa aquí si quieres verla".

Qué majos sois. Pero ¿realmente de dónde habéis sacado

toda esa información? Y primero preguntadme

si necesito que alguien filtre.

Esto es una tontería, fotos de lo que sea,

pero imagínense con las noticias.

Ya no hablo de FEG News. Hablo de noticias reales.

¿Me vas a filtrar y me vas a enseñar solo

las que yo quiero ver? ¿Hasta qué punto estás condicionando

mis decisiones?

-Aquí hay un punto, sí, de manipulación y discriminación.

Y también hay que entender cómo funciona el algoritmo

por detrás.

Al final hay una dicotomía muy clara en los algoritmos,

que es la predictibilidad versus la interpretabilidad.

¿La qué? La primera parte.

Predictibilidad. Cuánto mejor predice un algoritmo.

Entonces,

cuando nosotros, y viene el regulador

y ya está llegando y dice: "Pero explícame cómo funciona esto".

Tú cuando llegas a hacer grandes predicciones

y tienes algoritmos que se llaman de aprendizaje profundo,

tú tienes un algoritmo que puede tener millones de pesos.

¿Y esto por qué pasa? Tú le puedes explicar por encima,

pero no acabas de verlo, porque él hace sus propias conjeturas,

como puede ser entender una imagen,

una línea, un contorno y te dice: "Mira, eso es un gato, ¿no?"

Entonces, una de las cosas que pasa en Estados Unidos,

a nivel de los seguros, es que cuanto tú propones

una tarifa aseguradora,

a ti te dicen: "Oye, pero ¿cómo funciona, ¿no?"

Y tienes que hacer algoritmos que son interpretables,

que son lineales.

¿A qué me refiero con eso? Si nos imaginamos una tabla de Excel

con gente, números de accidentes y tipologías de personas,

tú dices: "Oye, menor edad, le subo la tarifa,

porque los jóvenes

tienen más probabilidad de accidente y esto está socialmente aceptado".

Pues ahí no puedes discriminar a ciertas minorías,

decir: "Oye, temas de raza". Etcétera, etcétera.

Porque viene el regulador y te dice: "Esto no lo puedes hacer".

Aquí, en esto, hay un punto, ¿no? Yo lo hago interpretable,

pero no es tan bueno, pero cuando lo hago predecible

y puede ganar... AlphaGo, que hace...

Es el famoso ejemplo que ganó al mejor jugador de Go

del mundo,

incluso los de Google no entienden muy bien

cómo funciona.

Entonces, aquí hay un punto de cómo está tirando la tecnología

y cómo la interpretamos.

Y es un gran punto de debate. Dices: "Oye, ¿por qué filtran

hacia mí esas noticias?"

Pues tendrán algoritmos de aprendizaje

y de ciertas imágenes y te habrán categorizado

de esa manera. Desde el punto de vista

de los que hacemos, hay veces que cuando vamos a hacerlo tan bien,

incluso vemos hacia dónde va, pero no podemos explicártelo

al 100% y en base a eso, Google está haciendo una cosa

que se llama " What-If", ¿no?

De: "Vamos a intentar explicar estas redes de aprendizaje profundo

para estos temas, ¿no? Para decir: "Oye,

¿cuáles son las variables que hacen que a mí me filtren esto?"

Y luego poder ya tú, si quieres, decidir.

Parece que todo sea muy fácil, ¿no?

Que detrás de Facebook, Google y demás

simplemente haya que darle al botón,

al "guest" o al que sea,

para poder avanzar en la red

y luego descubres

que no, que las cosas son mucho más complicadas.

Voy a hacer una pregunta individual antes de pasar al video.

¿Usted utiliza las redes sociales sin ningún tipo de cortapizza?

Yo paso...

Si quieres se lo pregunto a su compañero y...

No, no, yo paso,

por lo menos, una vez al mes

haciendo un fin de semana de meditación en silencio

y lo intento inculcar en la familia,

porque me parece superimportante y, yo, como tecnólogo,

poder volver otra vez a conocerme yo a mí mejor mismo

que lo que me va a conocer ningún algoritmo,

porque el desarrollar este criterio digital

dentro de un espacio tan complejo,

no nos lo van a hacer las máquinas.

Nos lo vamos a hacer entre nosotros, humanos,

y va a ser la única manera de resolver esta dicotomía

entre la inteligencia artificial y la inteligencia humana.

Luego le... Pero déjeme...

Misma pregunta: "Uso de redes sociales".

Cada vez menos, ¿no?

O sea, mi concienciación cada vez es mayor: "Oye,

no voy a dar mis datos gratis".

O sea, supongo que llegará a un punto que tú dirás:

"Oye, quiero compartir mis datos de donde estoy cada día

geoposicionado". Y te pagarán por ello.

O: "Quiero compartir mis datos de navegación web".

Y me pagarán por ello.

Ahora, de momento, desde el punto de vista

de las redes sociales y conectividad lo estamos haciendo gratis

y de una manera ingenua.

Y muchas veces hablas con gente y te dice: "¿A quién le interesa

que yo esté en este sitio tomándome una cerveza?"

Y dices: "Oye, si tenemos mucha gente

y sabemos sus gustos,

tenemos una foto de la población".

-Yo, personalmente, aplico la misma lógica

que en la vida, digamos,

física normal; es decir,

aquella información que no compartiría

de forma libre con un desconocido, pues tampoco la traslado alegremente

a las redes sociales"

en forma de opiniones o en forma de compartir

ciertas cuestiones y, cuando lo hago,

pues es porque o bien el ámbito profesional,

dependiendo de cuál sea la red, creo que hay un interés para mí

y para la gente con la que tengo relación,

o en otros ámbitos más informales, pues porque hay alguna noticia

que tiene un punto de interés;

pero tiene más que ver en lo que son las únicas cautelas

que tengo tiene que ver con eso, con seguir las mismas pautas

que en el mundo real, ¿no?

-Yo debo de reconocer que soy muy "teenager".

Yo soy como los adolescentes, estoy con las redes sociales,

con el móvil, con el ordenador, estoy todo el día conectada

y no me supone un problema.

No creo que sea algo criticable por una sencilla razón:

A diferencia de los adolescentes de hoy, adolescentes

y los de veintitantos ya,

yo he nacido y he crecido en una época

en la que no había Internet;

de manera que mi criterio, mi sentido común

a la hora de enfrentarme a la vida física está educado

y eso me ayuda a enfrentarme a la vida digital

y tomar ciertas precauciones, que son muy elementales

y funcionan perfectamente en el mundo digital,

ya directamente las tengo asimiladas y actúo de forma automática

con eso, es decir, yo tengo varias redes sociales,

las utilizo todas casi a diario, pero cada una está preparada

para un determinado aspecto de mi vida.

Algunas están abiertas a todo tipo de público,

sin ningún tipo de control, porque son para trabajo,

en las que expongo ciertas ideas solo para trabajo.

Otras las tengo completamente cerradas

con 60 personas, que conozco físicamente,

que sé quiénes son.

Ya no estoy hablando de quiénes están detrás

de las redes, sino del contacto con la comunidad.

Y luego lo que yo expongo en esas redes son cosas que creo

que mañana no me van a perjudicar;

igual que cuando me quise hacer un tatuaje me lo hice

y pensé que me iba a gustar cuando fuera mayor,

ahora antes de subir algo a las redes,

esa selección automática la hago por necesidad pura y dura,

para que en el futuro no me perjudique, o eso intento.

Hace un tiempo vi en un programa de esta cadena,

en "Documentos TV", un programa muy querido para mí,

un documental sobre inteligencia artificial

y me pareció muy interesante.

He cogido un clip

de ese programa, dos clips, para ser exactos,

y me gustaría que los viesen para seguir hablando

de inteligencia artificial.

-Estamos investigando en otros tipos de formato

de conversación, por ejemplo, el debate.

¿Podríamos introducir un sistema de este tipo

en una toma de decisiones en el contexto

del equipo de dirección de una compañía?

Esto son escenarios más complejos.

Tengo que identificar diferentes voces,

tengo que identificar diferentes intenciones

en las vibraciones de las voces,

tengo que identificar diferentes movimientos...

En eso estamos investigando,

cómo hacer real

la introducción de un sistema

en estas conversaciones naturales

que nosotros tenemos.

¿Es posible crear un algoritmo

tan complejo, como puedes ser el cerebro humano?

Ahora me dirás que el cerebro humano

no es complejo y que, por tanto...

No, bueno, en eso hay teorías, ¿no?

O sea, los algoritmos de aprendizaje profundo

están basados en la intuición que hay detrás del cerebro.

Dices: "Oye, si podemos hacer un algoritmo

que tenga tantos pesos como neuronas tiene el cerebro humano,

se acercará".

¿Y cuáles son las hipótesis de esa extrapolación?

Bueno, existe la Ley de Moore.

Para el que no lo sepa, cada dos años y medio

se multiplica por dos la capacidad de computación

y se establece que es una ley que hizo uno de los fundadores

de Intel,

y se establece que sobre el 2050 tendremos un algoritmo

con un número de neuronas y una conectividad parecida

al cerebro humano

y, entonces, ahí podríamos estar un poco a la par, ¿no?

Pero también hay que distinguir la generalización,

como decía Pablo,

a tareas concretas.

O sea, hay algoritmos que son mucho mejor

que personas en tareas concretas.

Nosotros tenemos la percepción del robot ese

que lo tenemos que desenchufar, pero en ciertas cosas concretas

nos ganan, como hemos hablado del tema de los médicos

y eso también pasa por la genialidad de que enseñamos a los algoritmos

a hacer cosas que para nosotros es fácil hacerlas,

pero es muy difícil explicarlas.

Por ejemplo, imaginamos un algoritmo que detecte aquí animales

o mesas.

Si nosotros definimos una mesa, una mesa, decimos:

"Una mesa, cuatro patas..." Etcétera, etcétera.

Vemos esta que tenemos en plató, todos sabemos que es una mesa,

decimos: "Oye, ¿cómo se la explicaríamos?"

Y hay algoritmos que con detección de imagen pueden llegar a eso.

Hay una cosa que me llama la atención

en el libro y que yo tengo que hacerle

la pregunta.

¿La inteligencia artificial

equivale al alma del ser humano?

Yo creo que se habla mucho de la singularidad

en este momento en el que la inteligencia artificial

será superior a la inteligencia humana

en todos los aspectos.

Y...

Yo creo que estamos a más de 100 años de eso.

Probablemente hoy la capacidad de un ordenador

de ser inteligentes está al mismo nivel

que el cerebro de un ratón.

Hay varios tipos de inteligencia, no solamente la perceptiva,

el sentido común, el razonamiento, la discusión crítica,

todos estos espacios no se han desarrollado.

Sin embargo, sí que las máquinas cada vez tienen capacidad

de desarrollar empatía, de ver cómo te sientes

y reaccionar, que eso no quiere decir

que ellas sientan

ni quiere decir que tengan conciencia

de esos sentimientos, sino que pueden interactuar

con nosotros de una manera mucho más empática

y que nos hace algo mucho más amable.

Ahora bien, Alan Touring,

hemos hablado de él,

el el padre...

Hicimos un programa...

De la inteligencia artificial,

aparte de ayudar en la Segunda Guerra Mundial

con la desincriptación del enigma,

dijo una cosa muy importante.

Dijo que habrá problemas que nunca, nunca las máquinas

serán capaces de resolver.

Hay todo un tipo de problemas que caen en una categoría

donde las máquinas,

aunque intentan resolverlas, nunca pararían,

estarían infinitamente intentando resolver el problema.

Y ahí es donde me parece que la magia del amor,

del humano, de la empatía,

de aquellas cosas que necesitan la cercanía

y la presencia,

donde aportaremos mucho más los humanos

en este espacio, donde Alan Touring decía

que las máquinas llegarán hasta donde lleguen

y seremos capaces de sumar las dos inteligencias

y probablemente hacer algo que nadie nos esperamos.

Aunque la Biblia dice que Dios, al crear el mundo,

al séptimo día descansó,

los nuevos teólogos,

o los teólogos más actuales,

más modernos, como queramos llamarles,

creen que la creación del mundo es una cosa que sigue viva

y que Dios sigue construyendo el mundo,

en el caso de lo que ellos creen.

Usted antes ha dicho, ha hablado de esa continuidad

en la creación.

¿Se refería a eso?

En cada momento estamos creando cosas nuevas,

en cada momento estamos...

Cosas que no nos podíamos imaginar hace

30 años, cuando, si me preguntaban de pequeño

qué quería ser de mayor diría que podía ser ingeniero,

que podía ser arquitecto, que podía ser periodista,

y hoy tienes nuevos trabajos,

como el desarrollo de aplicaciones,

el community manager

o experto en inteligencia artificial.

Y esta visión del cambio constante

es muy aparente.

El reto... Yo soy de Asturias.

Cuando pasé la transformación de la minería,

y aquella transformación se hizo en 20, 30 años,

formando a la gente,

con jubilaciones, etcétera, etcétera.

El cambio, el problema es que los cambios

pasan ahora de manera tan rápida,

que la capacidad de la humanidad de adaptarse

no es lo suficientemente grande, y del sistema social

de poder adaptarse,

muchas grandes discusiones que tenemos ahora

es si tenemos el sistema social adecuado para poder adaptarse

a los cambios tan grandes.

Y cuando esto pasa, cuando pasan estos retos,

como humanos reaccionamos y vemos tensiones.

Vemos tensiones en la inmigración, en bréxit, en el aislamiento,

en los muros...

Y esto son retos que nos está pasando como humanidad,

porque estamos cambiando a la próxima fase.

Estamos cambiando en la próxima era, pero esto son discusiones

muy humanas, no son discusiones de la tecnología.

La tecnología seguirá avanzando y seguirá haciendo las cosas

que hace muy bien, las seguirá haciendo muy bien.

Es ¿qué papel queremos jugar nosotros ahí?

Y muchas discusiones existencialistas también, claro.

Deberíamos hacer una temporada entera

de programas dedicados a las discusiones.

Teníamos otro clip del mismo programa,

que va por donde dice nuestro invitado,

sobre la tecnología, la rapidez de la tecnología

y la rapidez de la legislación. Vamos a verlo.

-¡Hola!

Bueno, mira, al final me estiré un poquito más...

-Hace un mes, aproximadamente, la...

Una mujer denunció a la...

A una compañía que le había vendido, que había fabricado

el vibrador que utilizaba en su intimidad,

porque el vibrador estaba enviando información

a unos servidores, de cada vez que lo utilizaba,

a qué potencia lo estaba utilizando, etcétera.

Y todo eso sin haberla informado a ella.

Estaba haciendo un perfil

de esa persona sin que ella se hubiera dado cuenta.

¿Cómo metemos mano a todas estas cosas

que nos proponen, nos provocan estas redes sociales?

La parte de la legislación que, obviamente,

es algo que se comenta y se conoce, que el Derecho siempre va por detrás

de la realidad, pero eso es así, no es nada nuevo,

y con el mundo de la tecnología se añade la complejidad

de la velocidad a la que va avanzando

y lo que progresan todos los descubrimientos

y las formas de trabajar con la tecnología.

Es difícil que la ley pueda adaptarse a cada paso

que da la tecnología, pero es cierto que detrás

de la tecnología están los humanos y son comportamientos

que están ya regulados en la mayor parte de los casos.

Uno de los últimos debates que hemos oído

es sobre si los filtros deben censurar contenidos

en las redes sociales. El filtro de esos contenidos

se puede relacionar con la censura previa

y además se deja en manos de grandes empresas.

Los proveedores de servicios son los que tienen

la obligación legal de filtrar esos contenidos

con carácter previo y, si a ti te parece mal,

luego ya reclamas.

Ese es el debate más actual ahora mismo

sobre el control de contenidos y de información en las redes

en relación con derechos fundamentales,

como son la libertad de expresión y el derecho a recibir información.

Eso está en nuestra Constitución Española

muy bien recogido y en las cartas de derechos universales.

En ese sentido podemos pensar que el derecho tiene armas

para continuar ordenando la convivencia social

con la tecnología.

Ahora bien, nos enfrentamos a nuevas situaciones

que tenemos que reinterpretar y eso no siempre es fácil.

Por eso decía antes lo de dotar al algoritmo de un sentido común.

Si a eso le añadimos dotar al algoritmo de una seguridad,

tanto técnica como legal,

podremos hablar de confianza. El resultado será confianza.

Es más, la confianza de los usuarios

es el beneficio económico de estas grandes empresas

que nos quieren controlar.

¿Nos expían el teléfono y la tele?

Pueden expiarnos, sí.

Pueden expiarnos.

Técnicamente, desde luego. Es decir, tienes información

del posicionamiento, dónde estás,

puedes tener acceso a la información de lo que se dice

a través del micrófono, a las imágenes

y, de hecho, ha habido malas prácticas

relacionadas con esto: aplicaciones que tenían

una finalidad y que de forma, pues ajena a esa finalidad,

estaban registrando más información de la debida.

De eso hay casos habitualmente, con cierta frecuencia,

y es algo perseguible, porque es un atentado

contra la privacidad.

Los algoritmos, hablamos mucho de algoritmo,

pero también es la propia tecnología la que genera un problema,

más allá de que hablemos de inteligencia artificial o no,

por ejemplo, nosotros tenemos acceso a todo el contenido cultural

que queramos, a toda la música que se ha producido,

a todas las películas, libros, etcétera.

Cuando tienes un universo tan amplio de elección,

¿cómo orientas tu elección? Es decir: "Me gusta esta música".

"Como te gusta esta música podrías escuchar esta otra".

No lo puedes descubrir tú de forma autónoma.

Hay dos formas de hacerlo, una es un algoritmo que establezca

ciertos patrones en tus gustos, o habría otra que no tendría

esa base, digamos, artificial, directamente,

que sería decir: "Lo que ciertas personas,

ciertos expertos o ciertos colectivos

estén opinando, me dice, pues qué podría interesarme".

Y en los dos casos sucede un problema,

que está en la base de los algoritmos,

que es el refuerzo; es decir, si yo te estoy recomendando

un libro a partir de lo que has visto,

lo que has leído, o una música o una película,

tengo tendencia, lógicamente, a consumir esta;

con lo cual, estoy reforzando que mi recomendación

ha sido la correcta; con lo cual, estoy restringiendo

el universo de búsqueda para todo el mundo.

Pasa lo mismo en el modelo basado en inteligencia artificial,

que en el modelo basado en recomendaciones de terceros

y pueden ser expertos. ¿Qué se produce en los dos casos?

Un sesgo. Y ese sesgo puede ser accidental

o ese sesgo puede, en ocasiones, tener una justificación

donde se quiere instrumentalizar con ciertos fines.

-En relación a lo que has dicho de que nos expían,

uno de los casos últimamente más sonados

es el Gobierno chino.

O sea, ya los policías van con gafas que identifican las caras

de personas, se ha vendido que es por la seguridad,

y ya dicen que de los 1.400 millones de habitantes que tienen,

en tres segundos, con un 90% de probabilidad,

podrán decir quién eres.

Tú dices: "Qué bien, una seguridad por si hay un ataque".

Claro, tú vas juntando diferentes piezas del puzzle.

Primero, todo legalmente, nos puede decir, que me identifiquen

si es legal o no, ¿no?

Y luego tú dices: "Oye..."

Imagínate que tienen un circuito cerrado de cámaras,

que están grabando todo el rato, que saben dónde está su población,

luego sabemos sus gustos en Facebook,

esa persona tiene nombres... El Gobierno de China fue listo

y no dejó entrar Facebook, una empresa americana,

lo prohibió, y tienen el suyo, su red social, y dices; "Oye,

sé quiénes son, sé dónde están y sé lo que opinan".

Que muchas veces pensamos en grandes corporaciones,

pero también hay grandes gobiernos que pueden estar expiándonos.

Y la consecuencia de esto está siendo que el Gobierno chino

está haciendo un "scoring", nos está puntuando,

a sus diferentes habitantes, de cómo de buenos son

o de malos son.

Entonces, al final nos podemos abocar,

que si no le ponemos una revolución, nos vamos al escenario apocalíptico,

donde humanos potenciados por la inteligencia artificial,

pueden controlar la población.

Y yo creo que es ahí donde tenemos que ayudarnos,

pero a nivel global.

Déjenme que le haga una pregunta a usted, al que...

Sí.

Estaba usted en el...

En el turno de palabra.

¿Facebook y la CIA son lo mismo?

Ah.

Ah.

Yo creo, opinión personal, de que Facebook le ha dado

un gran instrumento a la CIA.

Está la NSA, temas de teléfonos, temas de Telcos,

que se graba lo que hacemos,

pero es que además ahora tenemos más,

sabemos qué le gusta, con qué interactúa...

Yo creo que por leyes, corrígeme, Ofelia, si me equivoco,

tienen derecho a coger esos datos por temas de seguridad nacional.

Lo decía Benjamin Franklin, el que cambia libertad

por seguridad, al final acabará perdiendo las dos.

Yo creo que este es el gran debate al que nos enfrentamos

en los próximos años.

Interesante.

¿Qué es lo que hace Telefónica

para garantizar la seguridad?

Yo creo que es importante...

Y para proteger a los usuarios.

Por Internet tenemos en cada momento,

hay 200 millones de correos, que pasan al minuto,

hay 200.000 tuits y cientos de miles de fotos

en Instagram.

Los datos y la inteligencia artificial

hoy salvan vidas humanas, te ayudan a gestionar tu vida,

te ayudan a encontrar un crédito barato,

o la nueva casa o te ayudan a encontrar un libro

o el próximo colegio para tu hijo.

El problema es que no todo vale.

Yo creo que hay una línea muy fina

entre que te recomienden cosas

que te gustan y que te sientas invadido

en tu privacidad.

Yo creo que aquí la regulación están entrando,

la Ley de Protección de Datos, y yo creo que lo importante

es tener más transparencia, más control de la información

y más seguridad,

para que estos datos, que muchas veces los vemos

como fríos, y los algoritmos se conviertan en cálidos

y te ayuden a crecer, porque se convertirán

en tu próximo coach, se convertirán en el próximo psicólogo

y se convertirán en un alma

que sabrá más de ti de lo que probablemente tú

te atreves a decirte.

Y que mimándola, cuidándola,

protegiéndola entre todos, teniendo discusiones como estas,

probablemente nos ayudará a crecer a todos.

Gracias a los cuatro.

Tomo nota de que un día al mes,

reflexionar.

Yo diría que hay otras cosas que podríamos proponer

y es, cuando uno se sienta a la mesa a comer o a cenar,

apagar el móvil, apagar la tableta,

y dedicarse a hablar

con los compañeros

y dedicarse a ver también el mundo

de una manera constructiva o positiva.

Gracias a los cuatro.

Supongo que habrá un ejército de abogados

o de licenciados en Derecho que se querrán dedicar

a su especialidad también, ¿no?

Pues espero que sí. Espero que sí.

Yo, para eso también hice mi doctorado,

para poder continuar enseñando desde la universidad

y que esto tenga gente interesada

en no dejar que todo sea libre y feliz y no pasa nada

y que seamos conscientes también de los riesgos.

Estoy convencido de que en este programa,

segundo de la temporada, que en esta temporada habrá más,

no diré que sobre lo mismo, pero estaremos dándole vueltas

a la historia.

Les recuerdo el libro de Pablo Rodríguez

editado por "Deusto": "Inteligencia artificial.

Cómo cambiará el mundo y tu vida".

Y decirles a los otros que a qué esperan

a escribir y publicar sus libros

sobre estas temáticas que son tan interesantes.

Gracias a todos. Gracias a ustedes, por seguirnos,

y hasta la próxima semana.

(Músic

  • A mi lista
  • A mis favoritos
  • Los algoritmos

Millennium - Los algoritmos

08 oct 2018

Los algoritmos se han convertido en el elemento invisible que parece regular muchos aspectos de la vida cotidiana. Para debatir el tema, contaremos con la visita de: Pablo Rodríguez, Carlos Bort, José Luis Flórez y Ofelia Tejerina.

ver más sobre "Millennium - Los algoritmos" ver menos sobre "Millennium - Los algoritmos"
Programas completos (141)

Los últimos 349 programas de Millennium

  • Ver Miniaturas Ver Miniaturas
  • Ver Listado Ver Listado
Buscar por:
Por fechas
Por tipo
Todos los vídeos y audios