Estamos acostumbrados a convivir con ordenadores portátiles y de sobremesa. Ordenadores para gaming con diseños espectaculares o portátiles de apenas 1 Kg de peso para llevar encima a todas partes. Equipos todo en uno o 2 en 1 que combinan la función de ordenador con la de tableta.
Pero existen otros ordenadores que pasan desapercibidos y que casi nunca vemos y de los que pocas veces se habla. Son los ordenadores que hacen posible los avances en la predicción meteorológica, o en la síntesis de nuevos medicamentos o en los descubrimientos de disciplinas como la genética, la física de partículas, las Ciencias de la Tierra o la ingeniería. Son los superordenadores.
En última instancia, todos son ordenadores. Todos tienen procesadores, memoria y sistemas de almacenamiento y ejecutan programas. Pero los superordenadores llevan esta configuración a extremos sencillamente difíciles de imaginar.
Decenas de miles de procesadores en paralelo
Los superordenadores usan la potencia combinada de miles y hasta decenas de miles de procesadores junto con cantidades de memoria del orden de incluso más de un petabyte. Para que os hagáis una idea, 1 petabyte es 250.000 veces más memoria de la que tiene un ordenador medio con 4 GB.
Otros datos que hacen ver la enormidad de los superordenadores son los de su consumo energético, que ronda las decenas de megavatios o los del espacio que necesitan, con superficies de más de 1.000 metros cuadrados. Para que podáis compararlo con un ordenador convencional, el consumo de un PC medio es de unos 250 vatios, unas 62.000 veces menos que un superordenador como el que ocupa el primer puesto en el ranking Top500.
Además, cuestan incluso varios centenares de millones de dólares si hablamos de los superordenadores más potentes del mercado. Además, usan sus propios sistemas operativos, “tuneados” a medida para sacar el máximo partido a esta enorme cantidad de recursos de procesamiento. Si comparamos el precio de un superordenador como el Sunway TaihuLight que ocupa el primer puesto de la lista Top500 y cuesta unos 233 millones de dólares, con el precio medio de un PC que está en torno a los 600 dólares, tenemos que es unas 455.000 veces mayor que un ordenador para casa.
Los orígenes
Los orígenes de estos ordenadores están, yendo muy atrás, en los años 40 del siglo pasado. En aquella época, e incluso años más adelante, en la época de la exploración espacial, muchos de los cálculos que se necesitaban para abordar proyectos en disciplinas como la ingeniería o en proyectos militares se realizaban por personas de carne y hueso, que en muchos casos eran mujeres.
La película Hidden Figures (“Figuras ocultas”), recientemente estrenada, habla precisamente de la vida de estas mujeres encargadas de hacer complejos cálculos matemáticos en tiempo real durante las misiones espaciales o de comprobar la validez de los cálculos hechos por los primeros ordenadores adquiridos por la NASA en los años 60.
El primero fue el ENIAC, construido en 1943, con un total de 17.468 válvulas electrónicas de vació y un consumo de 150 KW. El rendimiento, era de tan solo 500 FLOPS. A partir de ahí, los ordenadores fueron progresando en tecnología y en potencia de cálculo.
Estrictamente hablando, los primeros superordenadores no llegarían hasta principios de los años 60 el siglo pasado, cuando los ordenadores transistorizados empezaban a sustituir a los de válvulas. Seymour Cray fue uno de los nombres propios que hicieron historia con sus diseños para los primeros ordenadores de la empresa CDC, y los sistemas Cray siguen siendo, a día de hoy, una referencia en supercomputación.
El Atlas, uno de los primeros superordenadores transistorizados, tenía transistores de germanio, pero su sucesor, el CDC 6600, presentado en 1964 ya tenía transistores de silicio. Para que os hagáis una idea, el primer procesador de Intel, la empresa de procesadores por antonomasia, fue el Intel 4004 y se presentó en 1971.
El CDC 6600 (Control Data Corporation) se usó en el CERN en Suiza a partir de 1965, y en el Lawrence Radiation Laboratory en la Universidad de Berkeley en California, y tenía 3 Mega FLOPS de potencia de cálculo. 60.000 veces más que el ENIAC de 1943.
En 1972, Seymour Cray dejó CDC para fundar su propia compañía, Cray Research. El superordenador Cray-1 se presentó en 1975, con una potencia de cálculo de 160 Mega FLOPS, más de cinco veces más que el CDC 6600. El Cray-1 se instaló primero en el centro de investigación de Los Alamos National Laboratory
La NASA, por su parte, no crearía su división de supercomputación hasta 1982, con su primer superordenador instalado en 1984, el Cray XMP-12, con más de 210 Mega FLOPS de potencia. Al año siguiente instalaría el Cray-2, con nada menos que 1,95 Giga FLOPS, más de 9 veces más potente, y casi 4 millones de veces más que el ENIAC. A día de hoy, su ordenador Pleiades ocupa el puesto 13 en la lista Top500 de noviembre de 2016.
La lista Top 500
A medida que aumentaba el número de superordenadores, se hizo patente la conveniencia de tener una lista con los más potentes para establecer un ranking mundial. Esta iniciativa cobró forma en 1993 como una lista bianual con los superordenadores más potentes del momento.
Esta lista se publica dos veces al año desde entonces, lo cual permite realizar análisis detallados y estadísticos sobre la evolución de los ordenadores más potentes del mundo. Además, se da información muy detallada sobre la arquitectura que emplean, el sistema operativo, su equipamiento de hardware o el centro de investigación donde están instalados.
La forma de usar esta página web puede resumirse, para ir al grano, en acudir a la pestaña “Lists” y elegir la que queramos consultar. También son interesantes las opciones para descargar la versión en Excel de la lista, o acceder a la sección de estadísticas, donde podremos obtener gráficos y datos de utilidad para entender este ranking.
El ranking se ordena por potencia de procesamiento, con información detallada sobre cada superordenador. Aquí, generalmente, no hay nada que ocultar. Estos ordenadores están dedicados a la investigación científica en su mayoría, y aquí no suele haber ocultación de información. Hay “piquillas” entre los diferentes centros de investigación y universidades, eso sí.
Qué podemos saber a la vista del ranking Top500
La parte de las estadísticas es una de las más divertidas. Si pinchamos en su icono, accedemos a una página con opciones. La de Top500 Sublist Generator, por ejemplo, nos permite crear nuestro propio ranking a partir de diferentes parámetros.
Por ejemplo, si queremos conocer qué presencia hay en la lista Top500 de superordenadores en España, podemos elegir que busque en todas las listas las referencias a sistemas instalados en nuestro país.
También podemos obtener gráficas como la de la evolución del rendimiento de los superordenadores, tanto de los primeros como del acumulado de potencia de cálculo global sumando la de todos los sistemas del ranking.
Las gráficas históricas (Historical Charts) son también interesantes. Entre otras opciones podemos ver de un modo gráfico cómo ha evolucionado la lista en lo que a fabricantes se refiere. Así, observamos que la tendencia es la de reducir los sistemas construidos por “marcas” como pueda ser Cray o HPE (Hewlett Packard Enterprise), para crear sistemas “ad-hoc” para cada necesidad concreta.
¿Y en España?
La lista Top500 es también útil para tomar el pulso al estado de la ciencia y la I+D en un país. A día de hoy, el único ordenador dentro de la lista Top500 que está en España se encuentra en el BSC (Barcelona Supercomputing Center). El BSC es el único centro de I+D que se ha mantenido en un puesto digno dentro del Top500.
En la página de estadísticas sobre España del Top500, podemos ver, por ejemplo, cómo el máximo número de superordenadores en España en la lista Top500 tiene lugar en el año 2007.
Para los amantes del análisis de datos, cruzando este dato con otros como el volumen de préstamos de Alemania a España, o la evolución de la burbuja inmobiliaria, encontramos curiosas coincidencias que hacen coincidir máximos en las curvas de estas tres tendencias.
Es significativo también ver cómo los superordenadores españoles, salvo honrosas excepciones como la del BSC, solo duran una o dos listas en el Top500. Los superordenadores que realmente se usan, se actualizan constantemente para mantenerlos al día en cuanto a tecnología. Pero eso requiere que encuentren aplicación en proyectos de I+D primero, y que se invierta de una manera continuada en su puesta al día, después.
Parece, a la vista de la evolución de los superordenadores en España del Top500, que muchos de ellos solo fueron flor de un día fruto de una inversión a base de talonario. No deja de ser un análisis a bote pronto, eso sí. Visto de otra manera, se puede concluir que la inversión en I+D y en proyectos científicos no es especialmente generosa. O al menos, no hay partidas presupuestarias destinadas a mejorar la capacidad de procesamiento de los ordenadores de nuestros centros de I+D y universidades.
El Barcelona Supercomputing Center es una excepción. Y en la lista de noviembre de 2016, su ordenador MareNostrum ocupa el puesto 129. En 2004 ocupó el puesto número 4, siendo su máximo histórico en la lista. Este ordenador tiene la peculiaridad de estar instalado en el interior de lo que en su día fue una capilla, haciendo que sea una instalación singular en el mundo. Entre otros usos, el MareNostrum se usa en áreas de investigación como la predicción del cambio climático, la biomecánica o el análisis del Big Data.
Otra excepción es el CesViMa (Centro de Supercomputación y Visualización de Madrid) que también tiene presencia en el ranking Top500 con algunos de sus superordenadores, especialmente el Magerit.
Usos de los superordenadores
A los usos que hemos descrito antes en el caso del MareNostrum, se suman otros muchos en los que los superordenadores juegan un papel clave. Desde la predicción del clima hasta la investigación en áreas de ingeniería como la aerodinámica. Los análisis estadísticos, la criptografía, las simulaciones en campos como la física nuclear o la dinámica molecular son algunos campos que se benefician de los superordenadores.
Las prospecciones petrolíferas, la inteligencia artificial, el análisis del Big Data o los sistemas de machine learning son otros campos que se benefician de la supercomputación, con el atractivo de que su rendimiento aumenta (al menos de momento) a un ritmo predecible por la Ley de Moore que apunta a hitos como la obtención de un Exa FLOP de rendimiento para 2018.
Si queréis adentraros en este mundo, la lista Top500 es el lugar adecuado para ello, donde encontraréis hasta el más mínimo detalles sobre cada ordenador.
En Nobbot | La bola de cristal no funciona: estas son algunas predicciones tecnológicas incumplidas
FOTOS | IBM 7030, ENIAC, Cray-1, Intel 4004