“Matrix nos rodea. Está por todas partes. Incluso ahora, en esta misma habitación. Puedes verla si miras por la ventana o al encender la televisión. Puedes sentirla cuando vas a trabajar, cuando vas a la iglesia, cuando pagas tus impuestos. Es el mundo que ha sido puesto ante tus ojos para ocultarte la verdad.”
—Matrix (1999)
Este extracto de la conocida película Matrix refleja, mucho más allá de lo aparente, el asunto del que trata este artículo. Al igual que el personaje de la secuencia trataba de explicar al protagonista que todo lo que le rodeaba era una simulación y que había vivido engañado, la virtualización en cierto modo trata de hacer lo mismo en el ámbito de la computación y las redes, con el fin aprovechar todas las ventajas que sobrevienen al separar, con una capa intermedia de abstracción, los dos clásicos mundos de la informática: el físico y el lógico.
¿Cómo resurgió la virtualización?
Los primeros avances en virtualización se consiguieron a mediados de la década de los años 60 del siglo XX, cuando la compañía IBM se dio cuenta de que con la arquitectura centralizada reinante en los primeros tiempos de la informática moderna, se desaprovechaban enormemente los tiempos de uso de los recursos que los Mainframe eran capaces de aportar. Hasta ese momento, estos grandes sistemas debían ser usados secuencialmente como un todo. Sin embargo, este modelo, además de obligar a los administradores a planificar las tareas a ser ejecutadas, era altamente ineficiente puesto que no todos los recursos eran aprovechados la mayor parte del tiempo.
mainframe» cuya arquitectura favoreciera el uso “simultáneo” de todos los recursos entre varias unidades lógicas controladas por un software supervisor sin tener que esperar a la terminación completa de cada una de las tareas para ceder el control a las siguientes. A esta ilusión —en términos humanos— de acceso simultáneo a los mismos recursos por parte de tareas o procesos diferentes, se la llamó multitarea y fue una revolución en la informática.
IBM trató de corregir esta ineficiencia creando un nuevo modelo de «Poco después se iniciaría un descenso lento pero continuado en los precios hardware de las computadoras —profesionales primero, y domésticas después— y el viejo paradigma del mainframe potente, caro, centralizado y virtualizado quedó obsoleto, dando paso a la más flexible y barata arquitectura x86 sobre redes descentralizadas y sus emergente modelo cliente-servidor.
miniaturización y abaratamiento
La miniaturización de los transistores en las sucesivas generaciones de microprocesadores que duplicaban su capacidad cada 18 meses, el abaratamiento de las memorias y los aumentos de capacidad de los discos duros, produjeron inevitablemente la democratización generalizada de la informática. Y aunque ciertamente la arquitectura x86 no estaba orientada a la virtualización como los viejos Mainframes —ya que tiene instrucciones incompatibles con sus principios—, fue más que suficiente para las necesidades de la industria durante una década. Sin embargo pronto volverían a producirse los mismos problemas de infrautilización de recursos de la que adoleció también inicialmente su predecesora.
Fue entonces cuando una pequeña empresa californiana de Palo Alto, en Silicon Valley, sorprendió a todos en 1999 con un novedoso software que era capaz de interponerse entre el hardware de cualquier x86 y su sistema operativo anfitrión y corregir en tiempo de ejecución todas aquellas llamadas de bajo nivel al sistema incompatibles, en otras que fueran capaces de favorecer el uso compartido de todos los recursos entre varios sistemas operativos invitados distintos cargados “por encima”. Había resurgido la virtualización.
y llegó el cloud
La virtualización por sí sola consigue independizar al software del hardware, ya que una capa de abstracción intermedia permite hacer un uso compartido de los recursos subyacentes. Esta tecnología software permite básicamente compartir los recursos hardware de un host anfitrión (CPU, memoria, almacenamiento) con uno o varios sistemas operativos invitados que se ejecutan concurrentemente “por encima”, y ha sido un modelo muy utilizado desde entonces para abaratar costes.
Si a esta capacidad de virtualización se le añade ahora otra nueva tecnología que permite la creación dinámica de redes definidas por software (SDN), y además un software especial que permite ofrecer el conjunto de recursos resultante como servicio, cambiamos de paradigma y podemos empezar a hablar ya de Cloud.
El conjunto resultante es altamente flexible y estamos listos para comenzar a montar funciones de red virtualizados (NFV por sus siglas en inglés) interconectados entre sí, que tradicionalmente se ofrecían sobre hardware propietario, caro y muy especializado.
En este punto ya tenemos una combinación potente pero, ¿y si además añadimos un tercer actor capaz de hacer funcionar el conjunto en perfecto orden y concierto, aportando además la capacidad de automatizar tareas y despliegues? El resultado es inmejorable. Esta última pieza clave del puzle es el orquestador.
más competencia e innovación
¿Qué podemos conseguir con esta potente tecnología? Para empezar favorece la competencia y la innovación en el mercado de las telecomunicaciones, puesto que abre la puerta a empresas que no disponían de capacidad propia para fabricar hardware altamente especializado pero que dispone de altas destrezas técnicas para desarrollar software puntero sobre plataformas que ahora se abstraerán del tipo de infraestructura.
Desde el punto de vista comercial promoverá la agilidad para ofrecer servicios de forma más rápida y con un menor tiempo de puesta en el mercado. Facilitará también la aparición de nuevos modelos de negocio ya que se adaptarán mucho más rápidamente a las necesidades de los clientes, agilizando el lanzamiento de nuevos productos, personalizando las ofertas de servicios en base a un nuevo modelo de relación empresa-cliente donde el cliente demandará una experiencia de usuario en tiempo real y de autogestión de sus servicios: el Click&Enjoy.
Por último, y no menos importante, permitirá la eficiencia operativa al simplificar y automatizar las tareas de despliegue, reduciendo costes, y aumentando la flexibilidad de la red al poder hacer frente a aumentos masivos e inesperados de tráfico de nuevos clientes o servicios, como la alta capacidad que requerirá la red 5G o la numerosa señalización que requerirán los millones de dispositivos del Internet de las cosas (IoT).
virtualización de redes 5G
Orange es una empresa que por su naturaleza telco y su licencia de uso del espectro radioeléctrico, pertenece al grupo de infraestructuras estratégicas y críticas del país, y como tal debe cumplir con unos exigentes niveles de servicio a sus clientes. Por si fuera poco, esta exigencia se va a ver incrementada en los próximos años con la llegada de las redes 5G y los nuevos ecosistemas de servicios asociados.
5G es la primera tecnología diseñada teniendo en cuenta las tecnologías de virtualización y, por poner algún ejemplo representativo, la inminente llegada de la conducción autónoma requerirá de una ultrabaja latencia solo posible si desplazamos físicamente cerca de los clientes —gracias a la virtualización—, equipamiento que tradicionalmente se ha encontrado centralizado en el núcleo de las redes de comunicaciones.
Además tendremos que garantizar el nivel de desempeño requerido por la particularidad del servicio, mediante el uso de SDNs. Así, podremos aprovechar y configurar la misma red desplegada para cumplir con la exigencia de la ultra baja latencia de la conducción autónoma, la telemedicina o el gaming, para garantizar la alta disponibilidad de servicios como la televigilancia, para las altas tasas de transferencia de datos de los contenidos de alta definición, o los elevados niveles de gestión de conectividad del Internet de las Cosas (IoT).
Todo esto se hará posible mediante el llamado “Network slicing”, que es la segmentación o “rebanado” de la red para ofrecer características técnicas adaptadas a las necesidades del servicio: la virtualización aportará la función de red, la flexibilidad de despliegue y su gran posibilidad de escalado, y las redes definidas por software aportarán la flexibilidad y capacidad para abstraer la infraestructura de red física común y adaptar su comportamiento al nivel de exigencia particular de cada uno de los servicios (disponibilidad, fiabilidad, latencia, coste, energía).
un futuro vertiginoso
El ecosistema tecnológico va a sufrir cambios vertiginosos en muy poco tiempo y tendremos que adaptarnos rápidamente: veremos vehículos de transporte (aviones, barcos, trenes, drones) funcionando autónomamente, instalaciones industriales (minería, agricultura) controladas remotamente, almacenes logísticos funcionando sin intervención humana, electrodomésticos que “hablarán” con sus fabricantes para pedir mantenimiento o repuestos, o con el supermercado para hacer la compra de la semana, y un largo etcétera de servicios que ni podemos imaginar gracias a la Inteligencia Artificial y a la robótica.
Todos estos servicios requerirán de telecomunicaciones, y debemos estar preparados para adaptarnos rápidamente. Desde el lugar que nos toca, el futuro de la virtualización parece claro: los contenedores; aplicaciones completas y autocontenidas que transportan todos los componentes software necesarios para poder funcionar sobre un sistema operativo básico mínimo, dotando a la tecnología de una flexibilidad nunca vista. Tal es así, que los más importantes fabricantes de software de telecomunicaciones están avisando de que algunas de las próximas versiones de sus productos más importantes serán ya directamente sobre tecnología de contendores.
Y, en cuanto al cada vez más importante asunto de la seguridad, también tendremos que estar alerta ya que ya se han empezado a observar los primeros gusanos capaces de detectar que se encuentran confinados en un sistema virtualizado e intentan escalar privilegios para escapar de la jaula.
En cualquier caso se abre por delante un futuro interesante y lleno de oportunidades.
Desde Orange, con la responsabilidad de quien se sabe un actor importante en la tarea de hacer realidad estos retos, haremos nuestros mejores esfuerzos por ofrecer los mejores servicios. Y lo haremos de la mano de la mejor pareja ganadora de tecnologías punteras habilitadoras: la virtualización y las redes 5G.