Enlaces accesibilidad

Hacia unas comunicaciones digitales más flexibles y fiables

  • Nuevas formas de entender las comunicaciones mejorarán su eficiencia
  • La clave, analizar situaciones y crear protocolos para conocer su fiabilidad
  • En la práctica supone mejorar tecnologías como la computación en nube

Por
Representación artística del código binario.
Representación artística del código binario. Michael Coghlan/Flickr

La comunicación digital forma parte de nuestras vidas y normalmente la asociamos a la perfección y ausencia de errores. Las comunicaciones de telefonía 1G eran analógicas, pero a partir del 2G se volvieron digitales y sin 'ruidos'. Podemos enviar datos y ficheros por Internet, o de aquí a Marte, y el resultado se transmitirá bit por bit, con total exactitud y sin errores.

Todo esto es posible porque fue estudiado y en gran parte definido por Claude Shannon, considerado 'el padre de la teoría de la información'. Sus trabajos nos ayudaron a entender mejor los circuitos digitales, la forma de corregir errores en las comunicaciones y a comprimir la información.

Gracias a Claude Shannon sabemos cómo utilizar códigos cifrados

Shannon también dio con la clave para explicar cómo se relacionan conceptos como la información, la aleatoriedad y la entropía, que de forma simplificada podríamos definir como la 'incertidumbre' o el 'desorden' inherente en la información.

Gracias a él sabemos más sobre cómo utilizar códigos cifrados, cómo 'explicar de forma matemática' las señales de radio, televisión o cuál es la capacidad de una antena de telefonía.

Nuevos avances sobre cuestiones básicas

Madhu Sudan, un profesor adjunto de ingeniería eléctrica del Instituto de Tecnología de Massachusetts (EE.UU.) ha publicado varios trabajos con su equipo sobre algunos avances relacionados con los trabajos de Shannon y otros expertos de la teoría de la información.

Su objetivo: ver hasta qué punto nuevos conceptos teóricos pueden convertirse fórmulas, algoritmos y protocolos que nos ayuden en la informática moderna. (Los interesados pueden encontrarlo aquí: Communication with Imperfectly Shared Randomness (PDF) (Comunicaciones con aleatoriedad compartida de forma imperfecta).

Aunque la matemática de sus publicaciones es bastante compleja, entender su acercamiento al problema y algunas de las soluciones no lo es tanto.

Basta con quedarse con la idea de cómo hacer un poco más más flexibles las rigurosas comunicaciones digitales de ceros y unos para entender dónde están sus límites si se producen errores o imprecisiones, dentro de unos márgenes de fiabilidad razonables. El punto de partida: analizar cómo lo hacemos las personas.

Uno de los ejemplos que ponen es la comunicación entre las personas: si alguien pregunta a un compañero de oficina '¿Quién era el tipo de ayer?' el interlocutor entenderá rápidamente que se refiere a alguien que vino ese día de visita inesperada (aunque por la forma de preguntar podría haberse referido a muchas otras).

Si hubiera habido varias visitas tendría que preguntar más bien algo como '¿Quién era el señor de gafas y abrigo gris que vino ayer por la mañana?'

La cantidad de información necesaria en cada caso es distinta. Los seres humanos somos muy buenos comprimiendo la información en forma de preguntas y respuestas, porque resulta útil y ahorra tiempo, aun a costa de perder algo de precisión.

Algo parecido sucede cuando comprimimos las imágenes en el ordenador en formatos como el JPEG, que sacrifica parte de los detalles con el fin de ahorrar espacio y ganar velocidad. Esa compresión utiliza la redundancia o 'repetición predecible' en los datos para realizar ese 'ahorro'.

Dominando las probabilidades

La cuestión interesante es que diferentes personas pueden utilizar diferentes probabilidades, interpretaciones o conocimientos a priori a la hora de utilizar la redundancia para comprimir la información que van a transmitir o recibir. Lo que han hecho los investigadores es demostrar que, con tal de que se sepa de forma aproximada el rango en que están esas aproximaciones, aun así se puede comprimir la información.

Como ejemplo ponen un telescopio cuyas fotografías son en un 90% de fondo negro; sabiendo eso de antemano es más fácil comprimir los datos antes de enviarlos.

Quien reciba las imágenes quizá conozca el valor exacto o tal vez solo algo aproximado (por ejemplo, entre 85 y 95%): aún así se podría conseguir una interpretación correcta.

Recientemente demostraron que esto funciona incluso si ambos interlocutores no saben muy bien a qué se refieren las probabilidades que están manejando.

De la pizarra a la nube

En la práctica, este avance con nuevos protocolos para hacer más flexibles y eficientes las comunicaciones digitales puede servir, por ejemplo, para mejorar el funcionamiento de la computación en nube.

En este tipo de servidores los datos suelen estar repartidos por muchos servidores en toda Internet y es complejo mantener todas las copias actualizadas.

Pero gracias a estos protocolos se pueden preguntar rápidamente a nivel estadístico algunas cuestiones, como por ejemplo el porcentaje de unos o ceros que hay en un fichero y comprobarlo desde otro lugar.

Según sus cálculos, si una máquina dice 'El 90% de los bits de mi base de datos son unos' y otra calcula 'En la mía el 89% son unos' se puede dar por válida la prueba – con una certeza matemática razonable.

En el fondo es casi como volver a una interpretación humana de la información: no hace falta transmitir todos y cada uno de los bits para 'entender' que dos conjuntos de datos son casi con seguridad exactamente iguales. Algo que complementa perfectamente las teorías de Shannon llevándolas un poco más allá.

Noticias

anterior siguiente