Dario Gil: “Luchamos contra coronavirus con un superordenador”

30 de marzo de 2020
Dario Gil: “Luchamos contra coronavirus con un superordenador”

Este español ha creado el sistema de superordenadores más potente de la Historia para combatir el coronavirus. Permitirá realizar simulaciones para saber qué estrategias serán las más exitosas frente al virus.

Fue el domingo de la semana pasada. En la sala de prensa de la Casa Blanca, el presidente de Estados Unidos, Donald Trump, anunció que cuatro gigantes tecnológicos de ese país – IBM, Microsoft, Amazon, y Alphabet, que es la propietaria de Google – han “desatado el potencial de los recursos de supercomputación de Estados Unidos” en la lucha contra el coronavirus.

Trump no exageraba. El coronavirus se enfrenta a la mayor capacidad de computación de la Historia de la Humanidad para ayudar a los científicos a desarrollar modelos que sirvan para curar y prevenir el coronavirus. Es una alianza formada las mayores empresas tecnológicas del mundo, cinco laboratorios públicos de EEUU, la NASA, y las universidades Instituto Tecnológico de Massachusetts (MIT), el Instituto Politécnico de Rensselaer (RPI), y el campus de la Universidad de California en San Diego, y varios organismos públicos, entre ellos la NASA y la Fundación Nacional para la Ciencia. Esta semana se sumó la empresa Hewlett Packard Enterprises a la iniciativa.

Es el https://covid19-hpc.mybluemix.net/ Consorcio de Computadores de Altas Prestaciones COVID-19, una iniciativa promovida y puesta en marcha en menos de una semana por un murciano de 44 años llamado Darío Gil, doctor por el MIT y director de Investigación de IBM. Gil tiene a su cargo a 3.000 investigadores del gigante tecnológico neoyorkino, es asesor tecnológico de la Casa Blanca, y suya fue la idea de conectar a los ordenadores más potentes del mundo – que se usan, por ejemplo, para simular explosiones atómicas y así no tener que llevar a cabo ensayos nucleares – en la lucha contra el coronavirus.

Entre los más de 16 superordenadores conectados está el Summit, diseñado y construido por IBM, que esta semana ha analizado 8.000 moléculas y ha detectado las 77 más prometedoras para terapias y vacunas. Es un trabajo que hubiera llevado meses hacerlo en un ordenador tradicional. Al Summit le costó dos días. ¿En qué pueden ayudar la tecnología a la lucha contra el coronavirus?Yo veo a las supercomputadoras y a la computación avanzada como un acelerador de conocimiento. La ciencia tradicional siempre se ha basado en el principio de prueba y error, o sea, en experimentos. Pero los experimentos son costosos y llevan tiempo. Cuando aparecieron los ordenadores se les empezó a usar para analizar los datos que nos daban los experimentos, hasta que nació un campo nuevo, que es el campo de la simulación. Y ahí es donde estamos ahora.¿En qué consiste la simulación?La simulación es como hacer un experimento virtual e imaginar lo que podría pasar. Cuando las simulaciones se empezaron a aplicar al mundo físico – la Física, la Química, la Biología – nos dimos cuenta de que la interacción de los átomos entre sí es enormemente compleja, y eso nos obligó a construir ordenadores muy especiales. Así es como nació la idea de las supercomputadoras, para, por ejemplo, hacer una simulación de un proceso de reacción nuclear.¿Cómo se aplica eso a una pandemia?Un virus es una entidad biológica, y cosas como la reacción con otras células o la búsqueda de las moléculas que pueden inhibir la proteína que ‘inyecta’ el virus son procesos del mundo físico y tienen, por tanto, un nivel de interacción unos con otros que es muy alto. Un superordenador es un ordenador con mucha capacidad de cálculo, muchos CPU [la parte del ordenador que procesa todas las instrucciones del software y del hardware de un ordenador] y, además, esos CPU están conectados unos con otros de manera muy eficiente.En la ‘nube’ también hay muchas maquinas conectadas.Sí, pero en general en la nube haces muchos procesos independientes. No es necesario que las máquinas estén ‘hablando’ unas con otras. Pero, cuando estás haciendo un cálculo muy específico -por ejemplo, cómo interactúan las moléculas con el virus-, necesitas buscar todas las interacciones y las conexiones. Eso implica tener miles y miles de ordenadores ‘hablando’ entre ellos, es decir, pasándose información entre sí de los cálculos de manera muy eficiente. Y un supercomputador está diseñado para hacer eso muy bien.¿Cuál es la capacidad del Consorcio?Ya hemos agregado la mayor capacidad de la Historia en supercomputación. No solo tememos los superordenadores más potentes, sino que además están 16 sistemas. Nunca ha habido nada parecido ni en capacidad ni, desde luego, en lo que se refiere a las organizaciones que están colaborando. Esos 16 sistemas -y aún siguen llegando nuevos participantes- tienen más de 330 petaflots de potencia, y aquí están cinco laboratorios nacionales de EEUU, la Fundación Nacional de la Ciencia, la NASA, el MIT, el RPI, y muchas empresas tecnológicas.Con esos 5 laboratorios ya colaborabais antes en cuestiones de supercomputación, aunque no con el coronavirus.De hecho, nosotros hemos diseñado os ordenadores Summit y Lassen, que gestionan y administran respectivamente los Laboratorio Nacional de Oak Ridge y de Lawrence Livermore. Así que tenemos una relación estrecha desde hace mucho tiempo. Ésa es la razón por la que esto avanzó muy rápido: tenemos mucha confianza y nos conocemos bien.¿Cómo ha sido la negociación con las otras empresas privadas? Sois competidores pero da la impresión de que todo ha ido muy bien.Fue el día 19. Ya teníamos a todos los laboratorios nacionales y al MIT y al RPI, y esto ya tenía mucho impulso, y ahí es cuando la Casa Blanca me preguntó: “¿Qué piensas de que participen otros?” Yo les contesté: “La idea del consorcio es que participen todos”. Así que se hizo la petición y todos dijeron que sí. Hay muchas otras compañías – también de fuera de EEUU – que han mostrado interés y se irán incorporando.¿Cómo se organiza en la práctica el trabajo?Estamos muy enfocados en el área científica, porque las propuestas deben ser presentadas en un portal de la Fundación Nacional para la Ciencia. Allí tenemos un comité de evaluación y en las primeras 24 horas ya había registradas más de 30 propuestas de equipos.¿30 propuestas en 24 horas?Sí. Por eso estamos tratando de ampliar la capacidad lo más posible y atraer a los mejores científicos.¿Cómo ha sido la gestación del Consorcio?Yo era el responsable en IBM de la respuesta tecnológica y de los profesionales de la empresa en todo el contexto de la pandemia, y, como parte de ese esfuerzo, estructuramos una serie de áreas de trabajo. Una de ellas era qué podíamos hacer para acelerar el proceso de descubrimiento de nuevos tratamientos y vacunas, y ahí nos dimos cuenta de que en uno de los campos en los que tenemos más experiencia y capacidad es en supercomputación. Y como sabíamos que había mucha dependencia en el área de modelado, la idea fue que, en vez de hacerlo solo nosotros, uniéramos esfuerzos. Así que llamé a la Oficina de Ciencia y Tecnología de la Casa Blanca y hablé con Michael Kratsios, que el el Chief Technology Officer [Director de Tecnología]. Le conté la posición de IBM y le expliqué que esto era una oportunidad para hacer esto cuantitativamente más grande. De hecho, ya habíamos hablado con los directores de algunos laboratorios nacionales del Departamento de Energía y esto había creado bastante entusiasmo. Así que unimos esfuerzos, y Kratios, Paul Dabbar [subsecretario de Energía para Ciencia] y yo lo lanzamos. Esto empezó el martes 17, para el viernes 20 lo teníamos muy anunciado y el domingo 22 lo anunció el presidente. Esta crisis llega justo cuando llevamos años cuestionado al máximo el papel de los expertos en todo, desde el cambio climático hasta las vacunas, y en algunos países, la pandemia ha agudizado el debate entre lo público y lo privado ¿Qué enseñanzas podemos sacar de esta crisis en materia de política científica?Yo soy un defensor de la importancia de la ciencia para la sociedad. Pero el componente institucional es esencial. Y desde ese punto de vista tenemos que tener una gran variedad de instituciones, públicas y privadas. El rol de las universidades, de la industria, de los laboratorios estatales, es reinventar cómo trabajamos unos con otros. Si no unimos esfuerzos no vamos a desarrollar el potencial que tenemos. Toda mi carrera profesional ha estado muy enfocada a crear nuevos modelos colaborativos. Por ejemplo, el laboratorio que creamos hace unos años con MIT, que es el mayor libertario de IA que se ejecuta entre una universidad y una empresa es un modelo colaborativo, donde nos es MIT, no es IBM Research, sino los dos juntos. Este consorcio es otro ejemplo. Pero de lo que se trata de que esto no sea solo para emergencias, sino una manera natural de hacer avanzar la ciencia. Cuando después de la Segunda Guerra Mundial se lanzó el sistema de ayuda a la investigación en EEUU, el 80% o el 90% del gasto lo hacía el Gobierno federal. En la estadística más reciente, si se mira el total del gasto en I+D en EEUU, que son 600.000 millones de dólares [538.000 millones de euros], el 70% se hace a través de la empresa privada.Pero en realidad, en computación cuántica, que es uno de los campos en los que tú t más trabajar, solo se habla de competencia, entre empresas, y, también, entre países, con una lucha sin tregua entre EEUU, la UE y China para ver quién desarrolla primero esa tecnología. ¿No contradice eso lo que estás diciendo de la colaboración?La competencia es esencial. Pero incluso en el contexto de computación cuántica, en el que se lucha por mantener el liderazgo, ya en 2016 lo primero que hicimos en IBM fue crear una plataforma en la que el uso de la computación cuántica estaba abierta para el mundo. En la IBM Quantum Experience tenemos más de 220.000 usuarios, y han salido de ella más de 240 publicaciones científicas. Tú puedes crear lo que quieras, pero lo tienes que abrir los sistemas para crear una comunidad. Si más gente también lo abre, se empieza a crear un ecosistema. Eso no quiere decir que el que haya creado el ordenador cuántico lo tenga que donar como caridad. La competencia va a seguir porque es lo que da margen y permite mantener los laboratorios de investigación. Pero puede hacerse de una manera que sume para todos.La sociedad ¿está sacando todo el partido de la tecnología? Por ejemplo, uno de los mayores clientes de los ordenadores cuánticos son los bancos. Y eso está muy bien, pero es probable que los bancos quieran ordenadores cuánticos para comprar y vender el mismo bono miles de veces por segundo, lo que no necesariamente redunda en un beneficio social visible.Yo creo que hay una serie de sectores que han internalizado mucho el rol de la tecnología de la información porque entienden que es fundamental para su negocio. Es algo que es independiente de los recursos que tenga cada institución o cada empresa. Eso lo ves en el sistema financiero o en el sector energético, donde te dicen, “si no somos capaces de hacer cálculos, no podemos calcular los riesgos o hacer los modelos”. Por eso quieren ver cualquier avance tecnológico, porque se han dado cuenta de que es crítico para su competitividad. A todos esto, ¿estáis usando ordenadores cuánticos en el Consorcio?No, porque todavía es demasiado temprano dado el desarrollo de esa tecnología. En IBM tenemos 16 ordenadores cuánticos trabajando, pero todavía tienen capacidad para contribuir a un esfuerzo como éste. A largo plazo, en esta década vamos a ver la convergencia de este tipo de supercomputadoras, de sistemas diseñados específicamente para Inteligencia Artificial, y de los ordenadores cuánticos. Es lo que yo llamo bits + neuronas + qubits [el qubit es la unidad de medida de la potencia de los ordenadores cuánticos], y eso sí que va a ser una transformación en el proceso de descubrimiento. Cuando hablamos de esta pandemia o de otros problemas como el calentamiento global, vemos que todo tiene una base en el mundo físico, y, por tanto, necesitamos conocer mejor el mundo físico.