Enlaces accesibilidad

¿Cómo nos preparamos para la próxima pandemia?

Análisis   El Método  

  • Ignacio Crespo Pitamédico y divulgador científico, analiza las herramientas para afrontar potenciales pandemias 
  • La inteligencia artificial y la computación cuántica acortarán los plazos para crear nuevos fármacos y tratamientos
  • La vigilancia epidemiológica y el avance del conocimiento, claves para luchar contra la futura 'enfermedad X' 
  • Coronavirus: última hora en directo | Más información en RTVE.es/ciencia

Por

Las ciencias de la computación pueden ofrecernos muchas herramientas aplicadas a la investigación biomédica de cara a una futura pandemia.
  • Ignacio Crespo Pita, médico y divulgador científico, autor de “Una Selva de Sinapsis” 
  • El Método es un programa de divulgación científica en torno al coronavirus
  • Más ciencia en rtve.es/ciencia

Volverá a pasar. Estamos viviendo la mayor pandemia, la del coronavirus, de nuestra era, pero difícilmente será la última.No se trata de buscar respuestas en una bola de cristal o de preguntarle a los hados qué nos deparan, es más sencillo que todo eso y, de hecho, ni siquiera es una predicción moderna. “La mayor amenaza para la continuidad de nuestro dominio sobre el planeta es un virus” así fue exactamente como lo expresó el biólogo molecular y premio Nobel Joshua Lederberg en 1988. Su visión ha tardado 32 años en cumplirse y lo cierto es que se trataba de puro sentido común.

Vivimos en un mundo globalizado, donde despertarse en Hong Kong y cenar en Buenos Aires es, para muchos, el pan de cada día. Esto facilita la rápida diseminación de enfermedades infecciosas, permitiendo que en cuestión de horas salten de un continente a otro. Por otro lado, la gran densidad de población de algunas ciudades facilita incluso más su propagación local y el contacto cercano con animales (bien sean salvajes o domésticos) propicia que uno de sus patógenos pueda acabar adaptándose a nuestro cuerpo.

Uniendo estas piezas parecía evidente que antes o después ocurriría una zoonosis de escala mundial como la que estamos viviendo, y al ritmo que seguimos creciendo lo extraño sería que no hubiera más en un futuro.

Pandemias de la historia: el factor tiempo

Hace años que la Organización Mundial de la Salud llama a estas potenciales pandemias “enfermedad X, pero ¿estamos preparados para enfrentarnos a la próxima? En buena parte, esto dependerá de las medidas de vigilancia epidemiológica que establezcamos, pero también de cómo de avanzado esté nuestro conocimiento. En la historia del VIH podemos encontrar un ejemplo claro de cómo el estado del progreso científico puede ser determinante para enfrentarse a una pandemia.

A pesar de que el VIH parece existir desde 1920, los casos comenzaron a crecer alarmantemente durante los 80 y el mismo término “SIDA” no fue acuñado hasta 1982. En cualquier caso, la clave está en que si pudimos enfrentarnos a la pandemia fue porque la zidovudina, el primer antiretroviral usado con éxito en el SIDA, ya había sido sintetizado en 1964 para otros propósitos.

Como en 1984 ya conocíamos sobradamente la toxicidad de la zidovudina y sus peligros (que no eran pocos), los investigadores pudieron enfocarse directamente en el estudio de su eficacia. Hoy en día la investigación habría sido algo más lenta debido la implantación de los ensayos clínicos de fase III que tuvo lugar en 1988, pero hay algo claro, y es que si los principales brotes de SIDA hubieran ocurrido antes de 1964, cuando la zidovudina aún no existía, el número de fallecidos habría sido muy superior. El tiempo es un factor clave en este tipo de emergencias sanitarias y todo lo que podamos llevar avanzado de cara a una nueva emergencia sanitaria repercutirá en vidas salvadas. Por desgracia, no podemos confiar en que una serendipia nos vuelva a salvar como deus ex machina.

¿Cómo actuar ante una pandemia?: apostar por el método

Existen demasiados principios activos que estudiar por si pudieran ser útiles en una hipotética enfermedad X, y hay incluso más que todavía ni siquiera hemos clasificado. En una situación así es prácticamente imposible saber qué líneas de investigación nos ayudará a acortar los tiempos de reacción en una futura pandemia. No obstante, hay una forma de resolver este problema y es apostar, no al caballo ganador, sino al método que permita detectarlo cuando llegue el momento. 

El objetivo es reducir al mínimo el tiempo que pase desde que empecemos a buscar un tratamiento hasta que este se apruebe.Como estamos viendo estos meses, los ensayos clínicos pueden acortarse si (sin descuidar las medidas de seguridad y el garantismo pertinente) solapamos las distintas fases que los componen, permitiendo llevar a cabo varios estudios de forma paralela. Sin embargo, por mucho que esto consiga acelerar los ensayos clínicos, el desarrollo de un fármaco implica mucho más.

A no ser que pretendamos reciclar un fármaco ya aprobado para otro uso, (en cuyo caso podemos saltar directamente a la última fase de los ensayos clínicos en la que se estudia mayormente su eficacia), el desarrollo de un nuevo fármaco implica unas fases preclínicas más difíciles de acortar. De hecho, son paradigmáticas del espíritu de prueba y error que define a las ciencias biomédicas. Son tantas las biomoléculas entre las que elegir con cuál empezar a investigar y tantísimas las interacciones que nuestro limitado cerebro humano es simplemente incapaz de enfrentarse analíticamente a esta decisión. Nuestra memoria de trabajo apenas puede mantener 5 objetos simultáneamente para compararlos entre sí, para cuánto menos miles de ellos.

Por suerte, los ordenadores no tienen esta limitación y para ellos comparar grandes cantidades de información es trivial, tanto que podrían tener la respuesta a aquello que estamos buscando. Su uso podría acortar notablemente nuestro tiempo de reacción en el desarrollo de fármacos, convirtiéndose en nuestra particular zidovudina. En definitiva: los estudios in silico (que así se llaman) podrían ser la metodología clave por la que apostar en la próxima pandemia. 

El límite de nuestros ordenadores

Hemos asumido con bastante naturalidad la vertiginosa velocidad a la que avanzan las ciencias de la computación. Hay generaciones enteras de humanos que se han criado a las faldas de la Ley de Moore, que reza tal que así: el número de transistores de un ordenador se duplica cada dos años. Puede sonar críptico, pero grosso modo significa que la potencia de los ordenadores se multiplica en apenas 24 meses. La clave ha estado, en gran medida, en diseñar transistores más pequeños, miniaturizando esos ladrillos básicos que generan los ceros y unos del “cerebro” informático que hay tras los dispositivos electrónicos.

Al hacerse más pequeños podíamos poner más en el mismo espacio, haciendo a nuestros teléfonos móviles más potentes que los ordenadores que nos llevaron a la Luna en el 69. A más transistores más información podía procesar el ordenador y más se desarrollaban algunos campos como el del famoso big data, que es clave para algunos de estos estudios farmacológicos in silico. 

Por desgracia, parece que la ley de Moore está frenando. La física cuántica impide que podamos miniaturizar los transistores tanto como queramos, y eso significa que hay que buscar alternativas para seguir aumentando la potencia de nuestros dispositivos. De hecho, si queremos mejorar los estudios in silico de los que hablábamos, será necesario encontrar una forma de superar el límite de la Ley de Moore. Las simulaciones informáticas que se usan hoy en día son útiles, pero su nivel de detalle está en gran medida limitado por la capacidad de cómputo de los ordenadores, por lo que una mayor potencia podría significar unos resultados más fiables (y más rápidos).

La buena noticia es que a falta de una solución se presentan varias y dos de ellas parecen tener por delante un largo recorrido: la inteligencia artificial y la computación cuántica.

Computación “inteligente”

A diferencia de lo que popularmente se suele creer, la inteligencia artificial no es cosa del futuro, sino del presente. Cuando una plataforma de vídeos nos hace recomendaciones es una inteligencia artificial la que está operando. Lo cierto es que una inteligencia artificial es, a grandes rasgos, un programa informático capaz de imitar un comportamiento que, por lo general, asociamos con la inteligencia.

Normalmente solemos relacionarla con la capacidad de aprender de experiencias anteriores, y de hecho eso es lo que hace una inteligencia artificial para, por ejemplo, aprender a reconocer imágenes: ve miles de fotografías asociadas a un nombre que las identifica y, mediante operaciones matemáticas más sencillas de lo que podríamos imaginar, va creando un modelo que le ayude a identificar las siguientes imágenes. No obstante, es cierto que esto no aumenta la capacidad de cálculo de los ordenadores, al menos no como esperamos, pero ayuda a aprovechar sus recursos de una forma más eficiente, permitiendo enfrentarse a problemas que antes eran inimaginables.

Este fenómeno ha recibido incluso su propio nombre alternativo a la Ley de Moore, y es la Ley de Huang, que describe cómo el rendimiento de cálculo de algunos chips se ha vuelto 312 veces mayor en los últimos 8 años gracias a la inteligencia artificial. Al mismo tiempo, la Ley de Moore habría multiplicado la potencia unas 16 veces. De hecho, recientemente hemos visto un avance muy prometedor en este campo. La compañía de Google, DeepMind, ha alcanzado un resultado sobresaliente con su inteligencia artificial AlphaFold en un problema del ámbito biomédico: la estructura tridimensional de las proteínas.

Las proteínas son moléculas claves en la mayoría de las funciones biológicas y su actividad depende en gran medida de su forma. Esta, a su vez, está determinada por la manera en que se ordenan otras moléculas más pequeñas que las componen, los aminoácidos, los cuales se colocan como las cuentas de un collar, uno detrás de otro.Teóricamente la secuencia en la que se coloquen los distintos aminoácidos hará que la proteína se doble de una forma o de otra, como si hiciéramos papiroflexia, condicionado así su correcto funcionamiento.

El problema es que, aunque pueda parecer fácil deducir las reglas que siguen para doblarse, las interacciones entre los aminoácidos son demasiado complejas. Dicho con pocas palabras: ni siquiera los mejores ordenadores podían deducir la forma de una proteína basándose solo en su secuencia de aminoácidos. La limitación es tal que seguimos desconociendo la forma de muchas proteínas que se usan a diario en los laboratorios. La buena noticia es que AlphaFold parece haber sido capaz de predecir la estructura de estas proteínas con una precisión elevadísima, desviándose tan solo unos 0,1 nanómetros, lo equivalente a menos de la mitad del diámetro de un átomo de hidrógeno.

Las implicaciones que podría tener esto son mayúsculas, en especial teniendo en cuenta que conocer la estructura de una proteína puede ayudar a orientar mejor la búsqueda de nuevos principios activos para el diseño de tratamientos. Normalmente un fármaco funciona como una “llave” que tiene la forma adecuada para encajar en una “cerradura” del cuerpo, por lo que conocer la forma tridimensional de una proteína podría darnos muchas pistas para, en lugar de elegirlas a ciegas, optimizar este paso de la investigación. Todavía queda mucho que perfilar, pero es un ejemplo de lo que las ciencias de la computación pueden ofrecernos de cara a una futura pandemia.

La contraintuitiva cuántica

La palabra “cuántica” se ha vuelto muy popular en los últimos años, en parte porque hace afirmaciones que violan nuestras reglas sobre cómo debería funcionar el mundo. Cuando hablamos de física cuántica estamos refiriéndonos en realidad a la física de los sistemas muy diminutos, a los extraños comportamientos de las partículas subatómicas (aquellas que son incluso menores que un átomo).

En esta pequeña escala, suele decirse que una partícula puede estar aquí y allí al mismo tiempo, o que puede tener propiedades aparentemente contradictorias de forma simultánea. La realidad es algo diferente y podríamos decir que es más una cuestión de probabilidades. Con cierta probabilidad se encontrará en un lugar o en otro, tendrá unas propiedades u otras. Cuando tratamos de medir su ubicación o sus cualidades es cuando esa probabilidad desaparece, colapsa que suele decirse, dejan de ser una incógnita.

Pues bien, los ordenadores cuánticos pretenden aprovecharse de esta extraña cualidad de la física cuántica. En un ordenador clásico, cada uno de los transistores que lo componen puede contener un bit que es cero o un uno, esos números con los que asociamos normalmente a los ordenadores componen el código binario, la forma en que almacenan y procesan información, como si fuera su alfabeto. Cada bit puede ser 0 (no deja pasar corriente) o 1 (la deja pasar). Esto significa que con cada nuevo bit que añadamos la potencia del ordenador aumenta un poquito (añadimos un cero o un uno adicional a las largas líneas de código con las que trabaja).

En cambio, un ordenador cuántico no tiene bits, tiene cúbits (bits cuánticos) los pueden ser ser 0 y 1 de forma simultánea. Para intuir el concepto podemos imaginar dos bits de información, estos pueden encontrarse de cuatro formas diferentes: 0 0, 0 1, 1 0 o 1 1, pero tendrán que elegir solo de una de ellas. No obstante, si en lugar de dos bits fueran dos cúbits el primero podría ser 0 y 1 al mismo tiempo y el segundo tres cuartos de lo mismo, dando lugar a las cuatro combinaciones simultáneamente: 0 0, 0 1, 1 0 y 1 1. Con tres cúbits conseguiríamos 8 combinaciones simultáneas, con cuatro serían 16 y así sucesivamente.

Puede parecer extraño (y lo es) pero permite que cada cúbit haga crecer la potencia de cómputo de forma exponencial alcanzando capacidades muy superiores a las que tienen nuestros actuales ordenadores. De hecho, en 2019 Google consiguió alcanzar la llamada supremacía cuántica, haciendo que un computador cuántico resolviera un problema que un ordenador clásico habría sido incapaz de solucionar en un tiempo razonable.

Sin ir más lejos, a principios de diciembre de este año fue publicado en Science un artículo sobre un nuevo sistema de computación cuántico basado en partículas de luz, el cual ha podido resolver en 200 segundos un problema que al mejor superordenador de toda China le habría llevado 2.500 millones de años. Y no se trata de un triunfo aislado, apenas una semana después un grupo de Copenhague ha publicado una técnica análoga con buenos resultados.

Es pronto para afirmarlo con rotundidad, pero si estas líneas de investigación continúan avanzando, podemos esperar que acaben convirtiéndose en herramientas clave para aquellas investigaciones que requieran manejar ingentes cantidades de información. Sin ir más lejos el desarrollo de fármacos podría verse especialmente beneficiado, haciendo más robustos los estudios in silico. Por supuesto, quedan unos cuantos años para que estas tecnologías desarrollen todo su potencial, pero ya podemos ver los albores de una revolución metodológica, y apostar por ella podría ser la mejor manera de prepararse contra la pandemia X.