Enlaces accesibilidad

La mayor simulación por ordenador del universo jamás creada

  • Una supercomputadora busca recrear los 13.700 millones de años del universo
  • Se analiza el comportamiento de trillones de partículas y de las galaxias
  • Faltan muchas variables, de ahí que sea necesaria una gran potencia de cálculo

Por
Imagen de la supercomputadora que tratará de recrear la historia del universo
Imagen de la supercomputadora que tratará de recrear la historia del universo

Una supercomputadora de última generación se ha puesto al servicio de los físicos del Argonne National Laboratory (Estados Unidos) para ayudar a entender algunas cuestiones cosmológicas importantes sobre cómo surgió y se desarrolló nuestro universo. La idea es hacer retroceder el reloj cósmico hasta la época del Big Bang, el momento en que comenzó "todo lo que es, lo que fue y lo que será alguna vez", como describía Carl Sagan, para a continuación seguir el rastro de trillones y trillones de partículas. Al cabo del equivalente a unos 13.700 millones de años, convenientemente comprimidos "a cámara lenta" el resultado debería parecerse al universo que nos rodea y que podemos observar con los telescopios y radiotelescopios convencionales.

Esta supercomputadora se llama Mira, y está entre las más grandes del mundo. Es un modelo BlueGene/Q fabricado por IBM, que trabaja a unos 8 petaFLOPS (miles de millones de operaciones de coma flotante por segundo), con una velocidad máxima teórica de unos 10 teraFLOPS.

Esta gigantesca bestia está compuesta de 49,152 núcleos, repartidos en 48 grupos que se interconectan unos con otros a gran velocidad. La simulación de las interacciones entre las partículas requiere además una gran capacidad de almacenamiento, y por esta razón está equipado con casi 1 petabyte de memoria y 70 petabytes de disco. Comparativamente, 1 petabyte de memoria es unas 100.000 veces más que lo que lleva un ordenador convencional y 70 petabytes equivaldrían a 70.000 discos de 1 terabyte que son los que equipan los ordenadores caseros de gama alta y profesionales.

El sistema operativo que maneja todos estos recursos es una versión especial de Linux para supercomputadoras y aunque su funcionamiento es complejo podría describirse con un paralelismo: cada cálculo es como si una tarea se repartiera en miles de tareas más pequeñas y se enviara a miles de ordenadores portátiles, para poco después recibir los resultados uno por uno. Por eso son tan importantes la capacidad de cada uno de esos núcleos como la velocidad de transferencia de los datos entre ellos.

Otra parte complicada de la tarea es preparar el problema para que un ordenador de este tipo pueda resolverlo. Los científicos dicen que es como resolver una ecuación matemática muy complicada en la que solo se conocen el 5 por ciento de los valores y el 95 por ciento restante son variables. La simulación comienza a probar valores, hace interactuar esos trillones de partículas unas con otras y repite la operación millones y millones de veces. En total debe recorrer 13.700 millones de años, la edad estimada del universo. Si el resultado se parece a lo que conocemos, la cosa puede que vaya por el buen camino. Si no se parece, vuelta a empezar.

La forma de analizar los resultados persigue comprender mejor la composición del universo, el papel que juegan la materia oscura y la energía oscura (que apenas puede observarse pero componen el 85 por ciento del universo) y cómo se forman las grandes estructuras como los cúmulos y galaxias.

La potencia de las nuevas supercomputadoras permite que las simulaciones que se emplean para esta tarea se realicen cada vez con más partículas y sobre un espacio 3-D más «fino» y de «alta resolución», por expresarlo de alguna manera. Gracias a equipos como Mira, capaces de almacenar un pequeño universo en su interior, cada vez estamos más cerca de entender cómo funciona realmente el Cosmos.