A principios de este verano fue rescatado del fondo marino de las Islas Orcadas, en Escocia, un centro de datos sellado del tamaño de un contenedor. Apareció cubierto de algas, percebes y anémonas. Del resultado del Proyecto Natick, llevado a cabo por Microsoft, depende la viabilidad futura de los centros de datos submarinos alimentados con energía renovable.
A lo largo de los años se han pensado muchas ubicaciones para los centros de datos. Pero la idea de construir uno submarino se remonta a 2014. En concreto a un evento que reunió a empleados de la compañía de Windows para compartir ideas innovadoras. Como resultado, en 2015 ya fue sumergido un centro de datos en el océano Pacífico durante tres meses y medio.
El objetivo era proporcionar capacidad de computación a entornos costeros. Y también ahorrar en la factura energética, que es el principal coste de este tipo de instalaciones. Hay que tener en cuenta que más de la mitad de la población mundial vive a menos de 190 kilómetros de la costa. Por lo tanto, estas instalaciones bajo el agua y cerca de las ciudades marítimas podrían reducir la latencia que sufren los clientes conectados a grandes centros de datos, pero que están lejanos.
La latencia es el retardo en la respuesta que da el centro de datos a sus clientes debido precisamente a la excesiva distancia física, lo que al final da lugar a un peor servicio. Y por eso, las grandes telecos y los proveedores de servicios recurren a soluciones de proximidad. Son los llamados centros de datos en el límite o en el borde (edge computing, en inglés).
«Estamos poblando el planeta con dispositivos edge, grandes y pequeños. Conseguir que los centros de datos sean lo suficientemente fiables como para no necesitar el contacto humano es nuestro sueño”. Lo dice William Chappell, directivo de Azure, la plataforma cloud de Microsoft.
Un centro de datos submarino a 36 metros de profundidad
Así, en la primavera de 2018, Microsoft dio un paso más en esta dirección. Bajo el nombre de Project Natick, hundió en las frías aguas de Escocia el centro de datos Northern Isles a 36 metros de profundidad. El contenedor, con forma de supositorio gigante, albergaba nada menos que 864 servidores. Unas máquinas que desde entonces, y hasta que emergieron este pasado verano, no dejaron de funcionar.
Durante los dos años de funcionamiento del centro de datos sus promotores han probado y supervisado en todo momento el rendimiento y la fiabilidad de los servidores. Para conservar esta delicada tecnología en un ambiente tan diferente al de un centro de datos al uso, provistos de sus tradicionales sistemas de refrigeración y sus sensores de humedad, los investigadores rellenaron la atmósfera del contenedor con nitrógeno. Es decir, a diferencia de un centro de datos convencional, el Northern Isles no contaba con refrigeración activa. En su lugar la obtenía de las frías aguas del norte de Escocia. Y luego era distribuida en su interior precisamente gracias al nitrógeno.
El objetivo del proyecto era confirmar que el fondo del océano puede ser un entorno más estable y fiable que otros tierra adentro. Y el resultado fue que sí. De hecho, en un centro de datos al uso la corrosión provocada por el oxígeno, la humedad, las fluctuaciones térmicas y los posibles daños involuntarios ocasionados durante las tareas de mantenimientos son factores adversos habituales.
Desde Microsoft aseguran que con el Proyecto Natick se ha demostrado que los centros de datos submarinos no son ciencia ficción. Que, por el contrario, son viables desde un punto de vista logístico, ambiental y económico. Los mares fríos facilitan la refrigeración de las máquinas, que es una de las tareas más complejas en términos técnicos y costosas en términos económicos. Utilizando un sistema de tuberías de intercambio de calor similar al empleado en los submarinos, instalaciones como el Northern Isles ajustan aún más los costes operativos y garantizan la estabilidad del ambiente interior de la cápsula.
La atmósfera de nitrógeno es menos corrosiva
Una vez que fue rescatado del fondo marino, un equipo de especialistas empezó a analizar el hardware y sus componentes. Había que entender por qué los servidores de los centros de datos submarinos resultan ocho veces más fiables que los instalados en tierra. La hipótesis de partida con la que trabaja este equipo es que la atmósfera de nitrógeno es menos corrosiva que el oxígeno. Y también ayuda la ausencia de intervenciones de mantenimiento.
Por otra parte, para poner en marcha el Project Natick se eligió el entorno de las Islas Orcadas debido a que la red eléctrica en este lugar se abastece al cien por cien de energías renovables (eólica, solar y marina). Y, de esta forma, el centro de datos ha podido funcionar con una red que en otro contexto se consideraría poco fiable. Otro punto a su favor.
El próximo paso de los investigadores que han hecho realidad este proyecto será el de escalar sus dimensiones. Eso podría requerir la integración de una docena o más de contenedores del tamaño del utilizado en Escocia.
En Nobbot | Bajo el mar o dentro de un búnker: los centros de datos más peculiares
Imágenes | Microsoft