La industria IT ha alcanzado un alto grado de madurez en la evolución hacia la consolidación y virtualización del centro de datos, promovido en gran medida por el desarrollo de plataformas abiertas y basadas en estándares de la industria. La mayoría de los centros de datos están basados en arquitecturas x86 y permiten desplegar todo tipo de soluciones gracias a la compatibilidad de las herramientas de desarrollo y sus aplicaciones. Algo similar está pasando en el área de las redes de comunicaciones, donde la tecnología Ethernet ha evolucionado para convertirse en un estándar capaz de atender todo tipo de demandas de conectividad en el centro de datos.
Hoy estamos inmersos en una profunda transformación digital. Es lo que llamamos la “espiral de la computación”, donde una cada vez mayor oferta de servicios digitales hace crecer el número de dispositivos conectados a Internet, provocando un crecimiento exponencial de los datos. Y todos esos datos necesitarán ser almacenados y procesados en un centro de datos, lo que plantea la pregunta de qué sería de nuestro mundo conectado si no existiese el centro de datos.
Como consecuencia de la llamada “espiral de computación”, la necesidades de procesamiento está creciendo y, en muchos casos, los centros de datos no están preparados para atender dicha demanda con rapidez. La infraestructura de hoy, aunque con cierto grado de virtualización y arquitecturas cloud, es básicamente estática. Al final, los usuarios le piden al departamento de TI lo que necesitan, el departamento de TI lo cablea y los recursos se asignan, pecando de un exceso de aprovisionamiento (en la mayoría de los casos semi-automático o manual). El resultado es que se tarda semanas en desplegar nuevos servicios.
El centro de datos está redefiniéndose para ofrecer agilidad, eficiencia y automatización
Por eso la industria está enfocada en el coste de crear, provisionar, manejar, mover y retirar máquinas virtuales. Y es aquí donde se empieza a sentir el impacto de las tecnologías cloud al hablar de “orquestación”, de cómo tener un entorno de trabajo que pueda manejar dinámicamente todos los recursos sin interrumpir las operaciones y el servicio. Es lo que se denomina infraestructura definida por software o en inglés conocida por las siglas SDI (software defined infrastructure).
La SDI es una infraestructura de computación, controlada 100% por software, totalmente automatizada. Permite definir los requerimientos de la aplicación y automáticamente se genera el entorno de ejecución. Para ello requiere el uso de arquitecturas cloud con tres catalizadores fundamentales: SDN (redes definidas por software), SDS (almacenamiento definido por software) y funciones virtualizadas de red (NFV) que se ejecutan sobre infraestructura estándar X86.
Para “definir por software” todo el centro de datos, se están llevando a cabo grandes cambios en el hardware subyacente. Una infraestructura definida por software incluye aceleradores de virtualización a escala de procesador, de almacenamiento virtual, de paquetes de red, control del estado de los recursos subyacentes (grado de utilización de la CPU, consumo energético, seguridad, localización, etc.). Para todo esto se requiere hardware estándar construido para la virtualización y software abierto (open source). Este concepto, que ya estaba muy asumido en el mundo de los servidores, se ha llevado al mundo del almacenamiento y a las redes gracias a la colaboración de Intel y Redhat. Una infraestructura definida por software permite desplegar los servicios y aplicaciones de manera automática y el orquestador de la infraestructura asignará los recursos en función del nivel de servicio requerido por la aplicación.
Intel ha dado un paso más en el camino hacia una infraestructura definida 100% por software y totalmente automatizada, exponiendo hacia la capa de orquestación atributos de la plataforma hardware subyacente para que puedan ser utilizados automáticamente en función de las necesidades, nivel de servicio y requerimientos de la aplicación. El orquestador sabrá en cada momento el grado de utilización de cada recurso de computación, su rendimiento, nivel de utilización, nivel de consumo, si tienen aceleradores de almacenamiento, si existen recursos para entornos de ejecución seguros, si tienen capacidad de encriptación, políticas de localización de los datos, etc. Con toda esta información la aplicación podrá ser desplegada y ofrecer el nivel de servicio requerido.
En resumen, estamos en un período de cambio y disrupción. El centro de datos está redefiniéndose completamente para ofrecer agilidad, eficiencia y automatización. Es una buena oportunidad para reducir costes, aumentar la agilidad y centrarse en la transformación del negocio.