
La tecnología de contenedores se ha convertido en uno de los grandes focos de atención para las áreas de TI: ha conseguido demostrar que plantea una solución adecuada frente al reto del empaquetado de software. Los contenedores combinan perfectamente con los distintos requisitos nativos de la nube y también son una excelente opción a la hora de proporcionar almacenamiento persistente para aplicaciones nativas en un entorno de cloud híbrida.
La nueva generación de usuarios tecnológicos ha crecido con la misma confianza en la disponibilidad y rapidez de Internet que la que tenían sus padres respecto a la electricidad. Esto también vale para todo lo que se refiere a los contenidos, en todas sus formas, desde el cine en alta definición hasta la televisión por streaming, pasando por las redes sociales y los videojuegos. El resultado es que el tráfico digital crece actualmente en torno al 23% anual, y que seguirá haciéndolo de forma exponencial a medida que nos sumergimos en la era conectada.
Las cifras hablan por sí solas: un tercio de la población mundial está conectado a Internet; cada minuto se reproducen 1,3 millones de vídeos online; en 2020 habrá 30 000 millones de dispositivos del Internet de las Cosas (IoT) comunicando datos; los aviones comerciales transmiten 40 TB de información por cada hora de vuelo. Los datos se han convertido en un recurso importante para las empresas, pero la previsión es que se convertirán en su activo más importante a corto plazo. En consecuencia, crece el número de dispositivos equipados con sensores y conectividad móvil para proporcionar actualizaciones de estado continuas sobre su uso, el entorno, las alarmas, etc.
No hace mucho tiempo, la mayoría del tráfico de un centro de datos lo generaban y transmitían los servidores de TI, los ordenadores de sobremesa y los dispositivos móviles inteligentes, la mayor parte de ellos ubicados en los lugares de trabajo. En ese contexto, el cloud se diseñó y se convirtió en la solución ideal para esos entornos, ofreciendo la flexibilidad necesaria que hiciera más competitiva y rentable la informática. En cambio, hoy, los consumidores —y especialmente las máquinas— están ocupando su lugar y eso lo puede cambiar todo.
El cloud y su arquitectura de datacenters centralizados serán cada vez más distribuidos
Edge data centers
El cloud, así como su arquitectura formada por centros de datos centralizados, estarán cada vez más distribuidos. A medida que estos avances se produzcan y generalicen, los acuerdos de nivel de servicio (SLA) que ofrecen los proveedores en el cloud no serán capaces de soportar los requisitos necesarios de latencia y ancho de banda, y mucho menos de satisfacer las exigencias normativas respecto a la seguridad y la protección.
En las empresas, donde cada vez se externalizan más aplicaciones, ha surgido un enfoque híbrido respecto a la arquitectura de los centros de datos, en el que los centros de datos en el edge (edge data centers) y los recursos que alojan se han vuelto cada vez más importantes. El edge computing también desempeña un papel fundamental en el entorno industrial, al permitir que el procesamiento y ejecución de los datos que se transmiten de máquina a máquina (M2M) se realicen más cerca de la fuente.
Mientras tanto, en el contexto de los consumidores, los datos (en forma de contenido) se ubican y distribuyen cada vez más cerca del punto donde se consumen, mediante, por ejemplo, las redes de distribución de contenido. En cada una de estas aplicaciones, el requisito de disponer de altos niveles de resiliencia es tan importante como contar con una baja latencia y un gran ancho de banda para asegurar la satisfacción del cliente. La clave para poder aprovechar estas oportunidades será la capacidad para gestionar con mayor fiabilidad un entorno de centro de datos híbrido, cada vez más complejo y ecléctico.
Ante esta oleada de data centers en edge de última generación, la cuestión generalizada que se plantea el sector es cómo gestionarlos de forma óptima. Las herramientas que están disponibles actualmente son mucho más sofisticadas que las que existían hace diez años, o incluso hace cinco años. La capacidad de controlar y entender lo que sucede localmente, así como la conexión entre la infraestructura física y la infraestructura TI, es mucho mejor, lo que permite implementar centros de datos de manera mucho más efectiva. Tal y como ocurre con cualquier dispositivo ubicado de forma remota, la capacidad de poder configurar, resolver problemas y actualizar la infraestructura remotamente ahorrará costes y tiempo.
Buenas prácticas
En este nuevo entorno, será evidente la necesidad de repensar el diseño de los sistemas de centros de datos en el edge. Las prácticas de diseño típico en el edge son inadecuadas, dada la naturaleza crítica de estos sistemas. Las mejoras deben enfocarse en la seguridad física, en la monitorización y en la conectividad de la red.
- Entorno seguro. Los pequeños centros de datos locales a menudo se ubican dentro de una sala fácilmente accesible, lo que representa un riesgo de seguridad, ya sea frente a amenazas maliciosas o ante accidentes. Es necesario mover los equipos a espacios cerrados, asegurar el acceso —a ser posible con control biométrico—, implantar un sistema de monitorización de seguridad y videovigilancia y, en caso de entornos hostiles, asegurar el equipo en un armario que lo proteja contra incendios, inundaciones, humedad, vandalismo, etc.
- Conectividad de red. La conectividad con el cloud es crucial para las ubicaciones en edge. Sin embargo, muchas veces, hay un único proveedor de servicios de Internet que proporciona esa conexión. Esto representa un potencial de fallos y caídas, sin contar con el caos de cables en los armarios de redes, que también genera errores humanos. Las mejores prácticas para reducir estos riesgos incluyen agregar un segundo proveedor de red para sitios críticos, instalar dispositivos de gestión de cableado de red y etiquetar y codificar por colores las líneas de red para evitar errores humanos.
- Gestión del centro de datos. El protocolo de gestión y operaciones a menudo difiere en cada ubicación edge. Gestionar decenas o centenares de ubicaciones es caro y requiere mucho tiempo. Además, la disponibilidad en muchos sitios depende de los sistemas de infraestructura compartidos en la instalación, como generadores, parámetros y equipos de refrigeración.
En este sentido, una buena práctica, fundamental para reducir los problemas de gestión, consiste en contar con una plataforma de monitorización centralizada de todos los activos, en todas las ubicaciones.
El edge computing también desempeña un papel fundamental en el entorno industrial
Conclusiones
La adopción del cloud está llevando a cada vez más empresas a entornos de centros de datos híbridos. Aunque lo que queda en las instalaciones propias puede estar disminuyendo en tamaño, el equipo sigue siendo crítico. En una sociedad que exige una tecnología siempre disponible, no se toleran las paradas, caídas e interrupciones de los servicios. Un buen diseño del centro de datos hibrido y el seguimiento de buenas prácticas, sobre todo de gestión, son fundamentales para garantizar la disponibilidad en las ubicaciones más críticas.