La carrera hacia el exaflop

Te recomiendo leer la entrevista que me realizó David Ramos, «A fondo: ¿Quién ganará en la carrera por el exaflop?» Silicon.es, 29 Mar 2019. Me contactó gracias a haber leído en este blog sobre la necesidad de un supercomputador que alcance el exaflop (LCMF, 27 Ene 2012). Un tema que ha vuelto a ser noticia gracias a la presentación de Aurora, el futuro supercomputador estadounidense que promete alcanzar la escala de los exaflops (Mónica Tilves, «Así será la primera supercomputadora estadounidense de 1 exaFLOP,» Silicon.es, 25 Mar 2019).

No soy experto en supercomputadores, aunque soy informático. Acepté la entrevista porque había ojeado los artículos del número especial Race to Exascale de la revista de IEEE Computing in Science & Engineering (Jan/Feb 2019). Te recomiendo también la lectura de sus artículos: Jack Dongarra, Steven Gottlieb, William T. C. Kramer, «Race to Exascale,» IEEE CSE 21: 4-5 (2019), doi: 10.1109/MCSE.2018.2882574; Depei Qian, Zhongzhi Luan, «High Performance Computing Development in China: A Brief Review and Perspectives,» IEEE CSE 21: 6-16 (2019), doi: 10.1109/MCSE.2018.2875367; Douglas Kothe, Stephen Lee, Irene Qualters, «Exascale Computing in the United States,» IEEE CSE 21: 17-29 (2019), doi: 10.1109/MCSE.2018.2875366; Thomas C. Schulthess, Peter Bauer, …, Christoph Schär, «Reflecting on the Goal and Baseline for Exascale Computing: A Roadmap Based on Weather and Climate Simulations,» IEEE CSE 21: 30-41 (2019), doi: 10.1109/MCSE.2018.2888788; Gustav Kalbe, «The European Approach to the Exascale Challenge,» IEEE CSE 21: 42-47 (2019), doi: 10.1109/MCSE.2018.2884139; Bob Sorensen, «Japan’s Flagship 2020 “Post-K” System,» IEEE CSE 21: 48-49 (2019), doi: 10.1109/MCSE.2018.2886646.

¿En qué punto de desarrollo estamos en la ‘carrera por el exaflop’? ¿Cuándo podríamos alcanzar este hito? Se espera que se logre a mediados de 2020. En la revista Computing in Science and Engineering se acaba de publicar un número especial sobre el tema (Race to Exascale). El primer artículo sobre la supercomputación en China (el supercomputador Tianhe-1A fue el número uno en el TOP500 entre junio de 2013 y noviembre de 2015). Se afirma que China pretende volver a liderar el Top 500 en junio de 2020 con un superordenador que supere el exaflop (la nueva versión de Sunway TaihuLight que número uno en el TOP500 de noviembre de 2017). El tercer artículo sobre Japón afirma que también pretenden hacerlo para mediados de 2020 (proyecto Post-K). En Europa, segundo artículo, habrá dos supercomputadores superando el exaflop para 2023, y en EE.UU, cuarto artículo, tres para 2023.

¿Cuáles son los países punteros? El TOP500 lleva años liderado por EE.UU. y China. Les siguen Japón, Suiza y Alemania (en rigor la Unión Europea).

¿Para qué sirve conseguir dicha capacidad de computación? Para lo mismo que los supercomputadores actuales que alcanzan los cien petaflops (no supone gran diferencia ser unas diez veces más poderoso); en el último TOP500 de noviembre de 2018 el número uno es Summit (tecnología IBM + NVIDIA) que alcanza un pico de 143.5 petaflops y el número dos es Sierra (tecnología similar) que alcanza 94.6 petaflops. En concreto, cualquier aplicación que pueda pagar su uso con fondos públicos o privados, como la simulación de armamento nuclear, cambio climático, prospección petrolífera, etc.

¿Qué dificultades comporta alcanzar el exaflop? (energía, enfriamiento…) Las mismas que supuso alcanzar el petaflop hace diez años (IBM Roadrunner en 2008). Los avances son continuos y no hay nada reseñable más allá de lo mismo de siempre, que conforme la escala crece, también crece en escala. Se siguen necesitando avances en los modelos de programación paralela con memoria distribuida; dado que el número de CPUs y GPUs es creciente, la gestión de memoria ( > 10 petabytes) es un cuello de botella a superar, así como las líneas de comunicación de gran ancho de banda ( > 500 gigabits por segundo) entre estos procesadores. La eficiencia energética, no solo asociada al consumo energético de los procesadores, sino también a los sistemas de enfriamiento, es otro cuello de botella. Y hay muchos más, pero entrar en los detalles no nos ayuda a entender las grandes dificultades que supuso alcanzar el petaflop y ahora llegar al exaflop. Lo único relevante es que mucha gente trabaja para que el progreso sea continuo (y así será mientras haya fuentes de financiación que lo permitan).

¿Supone el avance de la computación cuántica una ‘amenaza’ al desarrollo de la supercomputación tradicional’? ¿Sus aplicaciones serían las mismas? ¿Se solapan o son complementarias? No, los ordenadores cuánticos tendrán su propio nicho tecnológico y nunca competirán con los supercomputadores tradicionales. Sus aplicaciones están centradas en la simulación de sistemas cuánticos, campo donde los supercomputadores son inútiles en la práctica (simulación de fármacos, nuevos materiales, etc.). Nadie usará un ordenador cuántico para resolver un problema que se pueda resolver con un supercomputador. De hecho, quizás nunca haya superordenadores cuánticos, con lo que tendrán que colaborar los “pequeños” ordenadores cuánticos como “oráculos” de ciertos supercomputadores dedicados. Nadie concibe un reemplazo de la tecnología tradicional por la tecnología cuántica en este siglo.

¿Se puede beneficiar la supercomputación de la conjunción con la inteligencia artificial? ¿Cómo? Hoy en día se usa de forma habitual la inteligencia artificial como herramienta que ayuda a los ingenieros en el diseño de todo tipo de sistemas complejos, incluyendo los supercomputadores. Por otro lado, muchos problemas de inteligencia artificial (como la simulación de grandes redes de neuronas que emulen el encéfalo de un mamífero) requieren el uso de supercomputadores. Así que ambos campos se benefician mutuamente (y lo llevan haciendo desde que a principios de los 1970 todos los circuitos integrados se empezaron a diseñar por ordenador usando sistemas expertos, es decir, inteligencia artificial).

¿El futuro de la supercomputación pasa por procesadores x86 o ARM? ¿Por qué? Ahora mismo todos los supercomputadores usan una combinación de ambas tecnologías (CPUs tipo x86 y GPUs tipo ARM). Como ambas se complementa muy bien, no hay indicios de que en los próximos años vaya a cambiar la tendencia. Al menos no lo hará en la era de los exaflops. Más allá es impredecible el futuro; muchos expertos opinan que una nueva tecnología reemplazará a ambas a mediados de la próxima década. Me gustaría recordar el cambio de hoja de ruta de la industria (International Technology Roadmap for Semiconductors) en el llamado ITRS 2.0 de 2015, obviando la Ley de Moore como objetivo y apostando por una reducción del consumo energético. Todo parece indicar que la tecnología de 5 nm (cuyos primeros prototipos se esperan en 2020) será la última para las tecnologías x86 y ARM; más allá habrá que recurrir a una nueva tecnología. Pero ya he dicho que predecir el futuro es imposible.



7 Comentarios

    1. Miguel, copio del texto: “En 2006 conoció a Bruce Beutler [y] trabajó con él [en] su laboratorio en La Jolla (California) [con] una beca posdoctoral de dos años. [Los] experimentos de Cristina resultaron infructuosos y por el ansia de publicar se fue”. Si hubiera sabido en 2008 que Beutler recibiría el Nobel de Medicina en 2011 quizás no hubiera abandonado, pero lo hizo. De hecho: “Beutler no lo entendió, le sentó mal”. Cristina prefirió trabajar con un investigador más joven, más obsesionado con publicar, Floyd E. Romesberg (Scripps, California). Gracias a ello logró un contrato Ramón y Cajal. ¿Lo hubiera logrado si hubiera seguido trabajando con el futuro premio Nobel? ¿Obtendrá Romesberg el Nobel dentro de unas décadas?

  1. Hola Francis

    Cuando crees que se lograra zettaflops? en por la decada del 30? o hay que dejar la tecnologia actual para pasar a algo completmante diferente de computacion como computacion noreversible, o nanotubos o grafeno o algo que no sabemos?

    1. Ni idea, de peta a exa han sido unos 15 años, quizás de exa a zetta sean otros tantos (2035). Benjamín, habrá una nueva tecnología a finales de los 2020, luego será usada en los zetta (aún no sabemos cuál será, pues competencia entre varias).

  2. Muy interesante Francis, pero ¿las GPUS usan ARM? Creo que tanto nvidia como AMD usan arquitecturas SIMD / VLIW propias, no ARM pese a quizá incluir cores ARM auxiliares.

Deja un comentario

Por Francisco R. Villatoro
Publicado el ⌚ 3 abril, 2019
Categoría(s): ✓ Ciencia • Colaboración externa • Informática • Noticias • Recomendación • Science
Etiqueta(s): ,