Una infraestructura TI centrada en el dato, escalable y flexible resulta esencial para que un usuario o un sistema acceda en tiempo real a la información que necesita gracias a una aplicación analítica. El grupo de distribución Eroski ha sabido mejorar la suya para conseguirlo.
El big data ha complicado el enfoque tradicional del área de sistemas de las organizaciones. El crecimiento exponencial de datos, de múltiples fuentes y formatos, y la necesidad de gestionarlos adecuadamente para sacarles valor han puesto en jaque, principalmente, a un activo tan esencial como el almacenamiento. Sin ponerlo al día será imposible beneficiarse de las numerosas ventajas que aportan las innovadoras soluciones analíticas, la IA y las distintas técnicas de machine learning.
El grupo de distribución Eroski, el primero de carácter cooperativo en España y operador de referencia en las regiones de Galicia, País Vasco, Navarra, Cataluña y Baleares, inició hace años un camino de modernización TI que ha acelerado en estos tiempos de obligada transición digital. Un camino en el que es imprescindible contar con un departamento TIC que entienda los nuevos retos del entorno socioeconómico actual, pero que también sepa pedir consejo para adaptar su infraestructura y mantener su competitividad.
El reto es gestionar un gran volumen de datos, estructurados y no estructurados, vinculados a una red de 1646 establecimientos
Comento este aspecto porque, en todo proyecto tecnológico, el factor humano es fundamental. Las tecnologías y las soluciones están ahí, pero por sí solas no garantizan un despliegue exitoso. Sin la complicidad con la que hemos trabajado estos últimos cuatro años para actualizar la infraestructura de almacenamiento, y sin la confianza que han recibido las propuestas de nuestros profesionales, no se habrían cumplido los hitos que nos propusieron. Es cierto que teníamos a nuestro favor una fructífera colaboración a lo largo de 18 años, lo que facilita el trabajo en equipo.
El punto de partida de la modernización realizada es la necesidad de gestionar un gran volumen de datos, estructurados y no estructurados, vinculados a una gran red comercial de 1646 establecimientos, que incluyen supermercados, hipermercados y cash & carry, además de gasolineras, ópticas, oficinas de viajes y tiendas de equipamiento deportivo. Los datos que se generan en estos entornos impactan en sus más de seis millones de socios clientes, y los más de 28.300 cooperativistas y empleados.
Infraestructura data lake
Año tras año se han ido dando pasos hacia una infraestructura de almacenamiento preparada para gobernar el big data y extraer valor de los datos mediante la utilización de soluciones analíticas. Se comenzó en 2019 mediante la implantación de una plataforma de almacenamiento all-flash en la que se centralizaran todos los datos estructurados.
Posteriormente se abordó la creación de un data lake en una nube privada que posibilitara la integración de datos de diferentes sistemas. Se trató de una solución multiprotocolo (CIFS, FTP, NFS, S3, etc.) que unificaba datos no estructurados, tanto ficheros como objetos, de distintas áreas: compra online, logística, club socio, CRM, aplicativos de BI, etc. En total, se da cobertura a cerca de 140 TB, de los que aproximadamente doscientos millones son ficheros que antes se almacenaban en distintas estructuras y de una manera muy heterogénea.
Se abordó la creación de un data lake en una nube privada que posibilitara la integración de datos de diferentes sistemas
Es una plataforma en la que convergen sistemas de almacenamiento scale-out de alta densidad con tecnología NVMe, con el fin de dotar de la mayor rapidez a las cargas analíticas. Para ello se han seleccionado sistemas AFF y Storage Grid de NetApp. Su escalabilidad está garantizada a cinco años y se puede complementar con servicios en la nube en un modelo híbrido.
Gobierno centralizado
Una vez asegurada la capacidad para trabajar con cargas analíticas que se nutran tanto de ficheros como de objetos, era necesario organizar los distintos entornos de almacenamiento desplegados para simplificar la aplicación de técnicas analíticas y rentabilizar el big data.
Este reto se ha conseguido con Stratio Data Centric, una plataforma multitenant que permite gobernar desde un único punto todos los datos, ya sean estructurados o no estructurados, sin importar dónde estén almacenados (en sistemas on-premise o servicios cloud). Esto permite combinar en una misma consulta toda clase de datos. Desaparecen los silos y, a través de una sola interfaz, es posible aprovechar todas las ventajas de la analítica avanzada sobre todas las unidades de negocio de Eroski.
Para abordar lo antes posible los primeros casos de uso, se desplegó en modalidad SaaS y, de forma paralela, se fue implantando la versión on-premise y la migración de los servicios que se requerían a su modelo PaaS.
En tiempo real, o bajo demanda, se puede aplicar analítica avanzada para tomar decisiones
La tecnología de Stratio garantiza la ejecución, a la vez, de distintos sistemas operacionales avanzados tanto en entornos de nube pública como privada, sin ningún tipo de dependencia mutua. En tiempo real, o bajo demanda, se puede aplicar analítica avanzada para tomar decisiones, por ejemplo, cruzando datos de clientes que compartan distintas áreas de negocio de Eroski con el objeto de plantear nuevas oportunidades de negocio, conseguir su fidelización, reducir costes, etc.
Contenerización y microservicios
La estrategia data driven que ha desplegado el equipo TIC de Eroski con el apoyo profesional de Omega Peripherals se ha enriquecido con el programa de transformación digital y modernización de Eroski: Handia. Este plan apuesta decididamente por el desarrollo de sistemas basados en contenerización y arquitectura de microservicios. Siguiendo este planteamiento, se ha preseleccionado Google Anthos como plataforma de orquestación de contenedores y gestión integral de las flotas de clústeres de Kubernetes.
Anthos es la solución propuesta por Google para desarrollar nubes híbridas, lo que conecta con el interés de Eroski por dotarse de arquitecturas híbridas. Con Anthos se gestionan de forma centralizada tanto los clústeres K8S de tecnología Google como los de otros fabricantes, lo que facilita y acelera su estrategia de cómputo híbrida y multicloud.
Actualmente, Google Anthos Baremetal está desplegada en el CPD con cargas con estado (Kafka y PostgreSQL entre otros) y sin estado (Servicios REST). Para dotar de persistencia a la solución y poder desplegar cargas con estado de manera segura, se ha optado por Trident, el proyecto de NetApp para dotar de almacenamiento persistente y flexible a Kubernetes.
El consumo de la información en tiempo real está directamente vinculado con la satisfacción del usuario final
Eroski es consciente de que los recursos de almacenamiento son claves para el correcto funcionamiento de las aplicaciones de inteligencia de negocio. Pero no hay que olvidar que el consumo de la información en tiempo real tiene un impacto más allá de descubrir nuevas oportunidades de negocio o mejoras para ahorrar gastos y rentabilizar costes. Está directamente vinculado con la satisfacción del usuario final, que se traduce en mayor compromiso en el caso del personal interno, fidelización en la clientela y reputación ante el ecosistema de suministros.
Hay mucho en juego, por eso es crítico visibilizar el valor que tiene el almacenamiento como pieza angular sobre la que construir toda estrategia analítica.