Los datos son el nuevo motor de crecimiento y de cambio. Los flujos de información han creado nuevas infraestructuras, negocios, nichos de mercado, políticas y, fundamentalmente, nuevas economías. Pero la información digital es diferente a cualquier recurso que hubiésemos gestionado en el pasado y debe ser recopilada, refinada, analizada, compartida y protegida desde perspectivas distintas. A menudo, lo más inteligente es dejar el “dato” cerca, apostando por el edge computing.

En estos momentos, en cualquier punto del planeta se están desplegando redes de dispositivos inteligentes y conectados, que monitorizan todo tipo de sistemas y generan terabytes de datos. De igual forma, a medida que el precio de los sensores continúe disminuyendo, el número de objetos conectados al IoT se disparará. Cisco estima que en 2020 habrá 50 millones de dispositivos conectados a Internet.

Conectando toda esa información podemos ser capaces de optimizar los procesos en fábricas, ciudades o incluso en los cultivos. Sin ir más lejos, la consultora IDC calcula que el “universo digital” alcanzará los 180 zettabytes en 2025. ¿Cómo gestionar esta inmensa cantidad de datos que está generando el Internet of Things?

En un modelo tradicional, los datos que provienen de los sensores instalados en los dispositivos conectados se envían a la nube, a los grandes data centers donde se almacenan y procesan. De ahí es de donde se extrae esa información que permite tomar decisiones oportunas, dotando de “inteligencia” al conjunto en forma de mantenimiento predictivo, gestión optimizada de los recursos, control de fallos, etc. Pero a medida que aumenta el número de dispositivos conectados se van haciendo cada vez más evidentes las limitaciones que plantea un escenario de este tipo, centralizado, en cuestiones como el nivel de ocupación del canal de comunicaciones o las necesidades de procesamiento y los tiempos de respuesta por parte de los data centers.

Más cerca del origen del dato

Las nuevas tendencias apuntan a la conveniencia de que los sistemas TI se ubiquen cada vez más cerca del usuario y de la fuente de datos, en lugar de centralizarlos en un único punto. Es lo que se conoce como edge computing.

Básicamente, se trata de desarrollar una descentralización de las infraestructuras TI, reduciendo el tráfico hacia o desde cloud, y de utilizar las capacidades de los propios dispositivos conectados para almacenar y procesar la información, justo en lugar en el que se origina. Este modelo permite, entre otras cosas, reducir de forma significativa la latencia, un factor especialmente relevante en el caso de infraestructuras críticas. De este modo se ayuda a prevenir la congestión de la red y se mejora de forma notable la transmisión de paquetes de datos.

Este cambio de modelo obligará también a plantear una arquitectura mucho más compleja para los centros de datos, complementando los data centers centralizados con otros regionales y con los edge data centers localizados, que serán cada vez más habituales. Serán los más cercanos al lugar donde se generan los datos.

Utilizar las capacidades de los dispositivos para almacenar y procesar la información

Aplicaciones

En la actualidad podemos ver estos edge data centers aplicados  en soluciones como la gestión de viñedos o en lugares tan emblemáticos como la Sagrada Familia (Barcelona), en la que se ha instalado un centro de datos modulares. En el caso de las fábricas, la tendencia es instalar in situ pequeños centros de datos propios, lo que les permite controlar la información más crítica, aunque mantienen el canal directo con las infraestructuras cloud para aprovechar capacidades analíticas más avanzadas.

Edge computing transforma el cloud computing en una arquitectura más distribuida. La principal ventaja es que cualquier tipo de interrupción se limita a un solo punto en la red, en lugar de toda la red. Por ejemplio, un ataque DDoS de denegación de servicio distribuido, o un corte de energía de larga duración, estaría limitado al dispositivo edge y a las aplicaciones locales del mismo, en lugar de a todas las aplicaciones que se ejecuten en el cloud.

Las empresas que han migrado a la nube pueden aprovechar la ventaja del edge computing para incrementar aspectos como la redundancia y la disponibilidad. Las aplicaciones críticas —o las necesarias para operar las funciones básicas de la empresa— pueden duplicarse para responder ante situaciones críticas. Pensemos en una pequeña ciudad que utiliza un suministro de agua compartido muy grande como fuente principal. Si este suministro se interrumpe en la red principal de abastecimiento, habría un tanque de agua de emergencia situado en la propia ciudad.

Otro ejemplo del uso de edge computing está en las soluciones que se están empleando en la búsqueda de gas y petróleo. Cuando se realizan estas exploraciones, múltiples drones examinan las áreas de trabajo, generando grandes cantidades de datos en forma de vídeo de alta definición. Estas áreas de trabajo son difíciles de coordinar, ya que incluyen flotas de camiones, grúas y excavadoras. Los drones pueden fotografiar y grabar las 24 horas del día, proporcionando a los gestores del proyecto una visión actualizada de cómo se despliegan sus recursos. Confiar en el edge computing permite a los drones transmitir todos estos datos en tiempo real y recibir instrucciones de manera oportuna.

FIGURA 1. Edge computing como respuesta a los retos derivados de una estructura centralizada.

Beneficios

En este mundo tan hiperconectado, tanto las empresas como los consumidores tienen un umbral muy bajo de tolerancia para las interrupciones de servicio. El edge computing permite dar una respuesta a los retos derivados de la transmisión de datos en tiempo real, llevando contenidos pesados y aplicaciones críticas cerca del usuario, o de las fuentes de datos, para asegurar una conectividad lo más fiable posible.

Algunos de los beneficios que plantea este modelo son:

  • Es local. Puede funcionar aislado del resto de la red mientras tiene acceso a los recursos locales. Esto es especialmente importante, por ejemplo, en sistemas de seguridad a través de escenarios M2M (machine to machine).
  • Proximidad. Al estar cerca de la fuente de información es particularmente útil para la analítica de big data.
  • Se reduce la latencia. Al estar cerca de los dispositivos finales se reduce considerablemente la latencia, lo que es una ventaja para reaccionar más rápido ante alertas o fallos o para mejorar la experiencia del usuario teniendo en cuenta que se reducen los tiempos de carga del contenido.
  • Información de contexto de red. Los datos en tiempo real pueden ser utilizados por las aplicaciones para ofrecer servicios relacionados con el contexto.

A medida que el mercado evoluciona, y especialmente en relación con el IoT, hay que comprometerse a encontrar soluciones más sencillas y rentables que faciliten las tecnologías edge.