El Internet de las Cosas (IoT) y el big data son los grandes protagonistas de la innovación global. Si hasta ahora habíamos confiado en la nube para procesar un volumen creciente de datos, la próxima gran tendencia es el edge computing. Una mayor fiabilidad y menores tiempos de respuesta son sus principales puntos de valor para las empresas.

La velocidad a la que se mueve el mundo digital es abrumadora. En solo una década hemos pasado de inventar el cloud computing, y migrar de forma masiva hacia una arquitectura basada en la nube, a considerar el edge computing como la próxima gran tendencia y virar hacia la descentralización mediante arquitecturas distribuidas. De hecho, todo indica que, a medida que avancemos hacia el futuro, cada vez más dispositivos se computarán a nivel local, en el edge.

Son varios los factores que han impulsado este cambio. Uno de los principales está relacionado con el inmenso volumen de datos que se prevé que será necesario procesar en el futuro. Hace algunos años se hablaba de 50 000 millones de dispositivos conectados al IoT en 2020, pero a medida que se hacían revisiones, esta cifra crecía de una manera exponencial. El magma de datos que supone tal cantidad de dispositivos inteligentes puede necesitar de algo más que la nube para procesarse de forma eficiente.

Esto no significa que el cloud computing vaya a desaparecer, al contrario. La clave será la combinación de ambos elementos —el denominado hybrid cloud—, ya que el edge computing ofrece respuestas a una serie de necesidades que el cloud computing no puede satisfacer. Al final, se trata de dos arquitecturas complementarias que suman para garantizar los mejores resultados para las empresas y sus clientes.

Estos microdatacenters deben ser resilientes y fáciles de implantar, gestionar y asegurar

Tiempo de respuesta

Vamos más al detalle. A medida que el Internet de las Cosas se iba extiendo, las empresas confiaban en la computación en la nube porque les aportaba ventajas significativas, como una mayor agilidad y, a menudo, también una reducción de los costes. Sin embargo, esta arquitectura centralizada no fue concebida para aplicaciones en las que el tiempo de respuesta fuera crucial. Aspectos como la latencia, las limitaciones de ancho de banda, la seguridad y los requisitos regulatorios también restringían el ámbito de qué podía alojarse en la nube y qué no. El edge computing ha dado respuesta a las nuevas demandas planteadas, al mismo tiempo que ha eliminado, o minimizado, todas estas limitaciones.

Gracias a la computación en el edge ya no es necesario hacer que los datos viajen hasta la nube para que sean procesados, sino que pueden tratarse más cerca de donde se recolectaron. Esto significa que los dispositivos y sensores ya no solo recogen datos, sino que también los procesan, con todas las ventajas que esto supone: mayor ancho de banda, latencia más baja, más fiabilidad, menores tiempos de respuesta y cumplimiento normativo en lo que se refiere a la localización y privacidad de los datos recogidos.

Las aplicaciones del edge computing son tan numerosas como sus beneficios. Por nombrar solo algunas, procesando sus datos en local, las tiendas pueden mejorar la experiencia de sus clientes; los hospitales digitales, la atención al paciente y su capacidad de respuesta; y las industrias, su eficiencia operativa.

Arquitectura TI

Por lo que se refiere a la estructura o al entorno, los centros de datos son, quizás, las instalaciones que más cambios están experimentando a raíz de la aparición del edge computing. Al tratarse de una arquitectura TI pensada para acercar las aplicaciones y los datos a aquellos —personas o cosas— que los necesiten, en lugar de algunos grandes centros de datos centralizados, se promueve una multitud de microdatacenters de proximidad.

Esto significa que, ahora, las empresas pueden llegar a tener cientos o miles de centros de datos que monitorizar y gestionar, con lo que se hace imprescindible que se diseñen y gestionen correctamente para que no se conviertan en el eslabón más débil.

En este sentido, son varios los retos que se han de afrontar. A menudo, estos microdatacenters en el edge se encuentran en ubicaciones remotas, sin asistencia de personal de TI local. Además, su ciclo de vida hace necesario el uso de estrategias distintas a las de los centros de datos tradicionales. Por todo ello, es necesario que sean resilientes y fáciles de implantar, gestionar y asegurar.

Infraestructuras edge

Para responder a estos retos, Cisco y APC by Schneider Electric se han unido para lanzar soluciones preintegradas y configuradas en una infraestructura autónoma que permiten una instalación plug and play en infraestructuras edge. El resultado: una nueva arquitectura personalizable con un enfoque hiperconvergente que optimiza la eficiencia, los costes y los tiempos de entrega.

Su escalabilidad minimiza el espacio y el uso de la energía en el centro de datos, lo que se traduce en un menor coste total de propiedad respecto a las infraestructuras tradicionales. Además, esta solución centralizada puede ser monitorizada y gestionada de forma remota desde la plataforma de Schneider Electric.

La proliferación de dispositivos y sensores conectados que implica la adopción del IoT requiere una gran planificación y una implementación meticulosa. El edge computing ya se ha convertido en una parte imprescindible de ella y todo anuncia que irá a más.

Sin embargo, para obtener los mejores resultados, la mano humana seguirá teniendo un papel clave, ya que son los responsables de las empresas quienes deberán decidir qué datos deben procesarse en el edge y cuáles deben enviarse a la nube.

El procesamiento de información en el edge, lo más cerca posible de la fuente, nos ayudará a enfrentarnos tanto al actual tsunami de datos como al incremento exponencial que está por llegar.

Microdatacenter

En contraposición con los grandes centros de datos asociados al cloud compuntig, el edge computing está ligado a un entorno de TI distribuido en una serie de microdatacenters. Se podrían definir como un armario seguro e independiente, y con capacidad para todos los componentes de TI esenciales. A menudo emplea infraestructuras convergentes o hiperconvergentes, junto con dispositivos de software de gestión y monitorización. También contiene todos los racks, SAI y dispositivos de alimentación eléctrica y refrigeración necesarios.