Doctor en matemáticas por la Universidad de Málaga (UMA) y la Marie Curie de París, Jorge Macías lleva, desde el año 1995, siendo parte del grupo EDANYA (Ecuaciones Diferenciales, Análisis Numérico y Aplicaciones) de la UMA. “Estamos interesados en modelos matemáticos de procesos geofísicos que tengan lugar en la naturaleza e impliquen fluidos”, explica. Su cara más conocida, la predicción de la velocidad y el tamaño de un tsunami pocos minutos después del terremoto.
Sin embargo, la de los tsunamis es una línea bastante reciente. «Trabajamos con flujos en ríos, vertidos de contaminantes, rotura de presas, circulación costera en el mar…» Al final, el grupo utiliza ecuaciones diferenciales para simular el comportamiento de fluidos en la naturaleza.
– Al tocar campos tan diferentes de las matemáticas, ¿con qué otras áreas trabajáis?
Desde el principio trabajamos en equipos muy multidisciplinares. Al principio empezamos colaborando con el Instituto Español de Oceanografía, donde trabajamos con físicos y geólogos. Hemos trabajado también con informáticos, biólogos e incluso con antropólogos.
Lo que nos gusta es que nos planteen un problema y hacer un modelo que intente reproducir ese fenómeno natural. Una vez creado, hay que validar si el modelo es correcto en base a las observaciones de campo que se hacen. Si funciona, se empieza a utilizar como herramienta de previsión y de pronóstico.
«Los tsunamis ya han ocurrido en el pasado en España y, por lo tanto, pueden volver a ocurrir, sobre todo en el Mediterráneo y en la franja atlántica»
– Centrándonos ya en los maremotos, ¿por qué se necesita en España un sistema de alerta temprana de tsunamis?
El riesgo existe, no igual que en Chile o Japón, pero existe. Ya han ocurrido en el pasado y, por lo tanto, pueden volver a ocurrir, sobre todo en el Mediterráneo y en la franja atlántica. Además, suelen ser fenómenos de menor magnitud, muy alejados de lo que vimos en Japón en el 2011 o en el Índico en el 2004.
– Hace poco estuviste precisamente en Chile trabajando en este tema.
Ellos tienen ya un buen sistema de actuación tras el terremoto que se basa en informar rápidamente al ciudadano y que este sepa cómo responder. Pero ahora quieren tener una información más precisa en tiempo real sobre las zonas donde el tsunami tarda más tiempo en llegar y de cuándo poder cancelar la alerta. Esto fue un tema serio en 2010, cuando cancelaron la alerta y después llegaron varias olas que produjeron víctimas.
– ¿Y están interesados en vuestro trabajo?
Sí, muy interesados. Ya hemos dado los primeros pasos. Estamos en contacto con ellos de 2015 y ahora ya hemos estado allí porque querían adquirir el hardware necesario para calcular este tipo de modelos. De hecho, el sistema ya está instalado en la Universidad Técnica Federico de Santa María.
«La National Oceanic and Atmospheric Administration (NOAA) tiene nuestro código en sus centros de alerta, donde lo utilizan junto a otros»
– ¿Lo habéis llevado a otros países?
En Italia está funcionando plenamente, en España estamos trabajando con el IGN [Instituto Geográfico Nacional], que ya lo está probando, y también en Estados Unidos. La National Oceanic and Atmospheric Administration (NOAA) tiene nuestro código en sus centros de alerta, donde lo utilizan junto a otros. Hemos dado cursos de formación en Colombia y Costa Rica, donde están interesados, pero cuentan con menos recursos.
– ¿Qué papel juegan las matemáticas en este sistema?
Trabajamos mediante modelos, ecuaciones que representan el fenómeno. Mediante algoritmos resolvemos estas ecuaciones de forma rápida y eficiente. Dentro del sistema, lo primero es contar con un sistema de detección del seísmo y dependiendo de la magnitud de la fuente sísmica lanzamos o no los cálculos.
Si es necesario calcular, podemos saber qué deformación se produce en la superficie, la ola, y el modelo se encarga de propagarla y ver cuánto tiempo tarda en llegar a la costa y con qué altura. Se trata de calcular muy rápido. En cinco minutos se tiene detectada la fuente sísmica y en cinco minutos más se calcula la ola. Si el tiempo de llegada de la ola a la costa es de media hora, nos da un margen de 20 minutos para hacer otras cosas, como transmitir la información a protección civil y a las autoridades.
– Entonces, en los 10 minutos posteriores al terremoto, se tiene información precisa sobre el tsunami.
Si se tuviera más tiempo, se podría generar un mapa de mucho detalle de la inundación que se va a producir, pero para eso no hay tiempo. Es por eso que se debe hacer un mapa de inundaciones por riesgo de tsunami. Se trata de un mapa preciso de la costa en el que se incluyen datos de hasta dónde llegaría la inundación por el tsunami. Así podemos tener un sistema de alerta mediante el cual, en función de la ola que se produce, saber hasta dónde hay que evacuar.
– ¿Cómo se reconstruyen eventos del pasado con estos modelos?
El problema aquí es que no hay datos precisos de la fuente sísmica. Por ejemplo, en el de 1755 [el terremoto de Lisboa] sigue habiendo mucho debate sobre cuál es la falla que lo produjo y cuál fue su magnitud. Los modelos pueden ayudar a determinar estos datos. Se hacen simulaciones numéricas de todas las posibilidades y se contrastan con los datos de impacto que se tienen, que también son pocos.
Así fue como empezamos a trabajar con antropólogos. Nos plantearon la posibilidad de que hubiese habido un tsunami en el lago de Tenochtitlan, donde estaba la capital azteca. Tenían evidencias históricas escritas de un posible tsunami y de un deslizamiento en un cerro que hoy forma parte de Ciudad de México. Así recreamos un escenario de antes del 1500, en un lago que ni siquiera existe. Y el modelo nos dijo que sí, que esa hipótesis era posible.
– ¿Y puede llegar a anticiparse el futuro?
El problema de los tsunamis es que no son predecibles, porque el fenómeno que los inicia es impredecible. Sabemos dónde hay fallas y cuáles son más activas, pero no sabemos cuándo se producen. Lo que se puede analizar son las potencialidades de cada falla y los casos que pueden producirse, que puede ser mañana o dentro de 5.000 años.
«El 80% de los tsunamis se producen por fuentes sísmicas, por terremotos submarinos. Son las más estudiadas y las más vigiladas»
– Esto se complica más con otras fuentes que generan tsunamis.
El 80% de los tsunamis se producen por fuentes sísmicas, por terremotos submarinos. Son las más estudiadas y las más vigiladas. En segundo lugar, se encuentran los deslizamientos submarinos, mucho más difíciles de estudiar porque no sabemos dónde se pueden producir ni lo vamos a detectar cuando se produce. Otras causas, casi anecdóticas, son los volcanes submarinos o aéreos y los meteoritos.
– ¿Es posible poner en números la cantidad de cálculo que se necesita para modelar un tsunami?
La cantidad de teraflops que se hacen por segundo es muy elevada. Este tipo de modelos se resuelven de forma discreta en una malla, una malla que colocamos, por ejemplo, en el Mediterráneo y que cuenta con más de 10 millones de elementos, de puntos donde hay que definir la altura y la velocidad de la ola.
En cada punto hay que resolver una ecuación que tiene tres incógnitas: la altura y las dos componentes de la velocidad. Por lo tanto, son 30 millones de incógnitas que hay que resolver varias veces por segundo. Para simular 10 segundos de tsunami, hay que resolver más de 3.000 millones de incógnitas. Ahora imagínate que quieres hacer una simulación de ocho horas.
«Las máquinas de cálculo que utilizamos estaban formadas, en un principio, por las tarjetas gráficas de los videojuegos»
– Y todo esto es lo que calculáis en cinco minutos.
Una de las grandes virtudes del sistema es que se calcula en una GPU, un motor gráfico. Para hacer los mismos cálculos en ordenadores, en una CPU, requiere ordenadores gigantescos y muy costosos, que solo existen en Japón o Estados Unidos. Las máquinas que utilizamos estaban formadas, en un principio, por las tarjetas gráficas de los videojuegos, ahora ya se empieza a abrir un mercado para el cálculo científico y existen productos propios.
Así, con un equipamiento de 50 o 60.000 euros, algo irrisorio comparado con los millones de euros que costaría una CPU con capacidad similar, podemos hacer todas estas operaciones en cinco minutos. Antes había países que no podían permitirse estos sistemas de alerta y esto ha cambiado.
– ¿Vuestro código está disponible para todo el mundo?
Tenemos una versión abierta que todo el mundo puede utilizar. Están disponibles en la web del proyecto HySEA, no solo los modelos del tsunami, sino los de todos los procesos geofísicos. El código del tsunami está validado por el NTHMP [National Tsunami Hazard Mitigation Program] y uno de los requisitos es que el código tenga una versión disponible para todo el mundo. Después tenemos contratos con los organismos que necesitan soluciones más concretas, como es el caso de la NOAA.
– ¿En qué líneas vais a seguir investigando en los próximos años?
Estamos pendientes de que se empiecen a generar los mapas de inundación que comentábamos antes e intentar formar parte del consorcio que los diseñe. El producto final no solo es simular hasta dónde va a llegar el agua, sino que debe incluir también los planes de evacuación, etc.
Tenemos muchas otras cosas en la cabeza. Estamos intentando utilizar otras técnicas para hacer el mismo cálculo mucho más rápido. También trabajamos mucho en la parte de modelar transportes de sedimentos, y en las storm surges, que son tsunamis meteorológicos producidos por fuertes cambios de presión en la atmósfera muy frecuentes en el Caribe.
Por otro lado, también estamos haciendo un catálogo con el Instituto Geológico y Minero para catalogar todas las fuentes sísmicas con potencial tusnamigénico que pueden impactar en las costas de España. Hemos hecho un catálogo inicial con un grupo de expertos y estamos trabajando en este catálogo, que es, digamos, el primer paso de cara a generar los mapas de inundación.
En Nobbot | Siria, Irak, el Mediterráneo… El Big Data en las crisis humanitarias
Imágenes: EDANYA, NOAA, Jorge Macías