Bienvenidos al mundo del fast data, el enlace entre la analítica de datos y la acción o, en el mundo de la tecnología, entre lo operacional y lo informacional. Para profundizar en este concepto hemos hablado con Luis Velasco, especialista de Big Data & Analytics en DXC Technology, y con Demetrio Barragán, director del Programa de Dirección Big Data & Business Analytics, y profesor de Marketing & Tecnologías de la Información en IE Busienss School.

En la última década, la sociedad ha vivido una revolución digital que ha transformado por completo el modo en el que vivimos, trabajamos, aprendemos y pensamos: la revolución del big data. Los avances tecnológicos están generando una economía con unos costes marginales cada vez más bajos, un fenómeno que se extenderá a todas las industrias… Un buen ejemplo serían empresas de fondos de inversión que ya hoy no utilizan brokers, sino que aplican algoritmos basados en datos para tomar decisiones, proponer escenarios de inversión u optimizar la rentabilidad de sus clientes.

Demetrio Barragán define el big data como la intersección de estrategia de negocio y ciencia de los datos, cuyo fin es ofrecer nuevas oportunidades para crear ventajas competitivas. El big data permite a las empresas utilizar los datos como un activo estratégico: disponer de información relevante en tiempo de decisión, erradicar procesos operativos ineficientes, mejorar la experiencia de los clientes, sacar provecho de nuevos mercados, etc.

Para muchas empresas, el big data es la ruta crítica para desarrollar nuevos productos, servicios o modelos de negocio y, cada vez más, va a ir ocupando una parte importante de la agenda de los directivos y sus equipos.

Los datos, al igual que los euros, pierden potencial de actuación conforme pasa el tiempo

Fast data

Dentro del ecosistema big data aparecen nuevos escenarios de tratamiento de la información con características específicas: cada dato debe ser tratado de forma individual, en tiempo real y con baja latencia. Ejemplos de estos escenarios los podemos encontrar en sistemas de monitorización y control, redes eléctricas inteligentes (smart grids), IoT e industria 4.0.

En este sentido, Luis Velasco apunta una máxima: el tiempo es dinero; fundamento de buena parte de nuestra concepción del capitalismo actual. Es evidente que, en igualdad de condiciones, es preferible recibir una suma de dinero ahora que dentro de cinco años. Este concepto, bautizado como valor temporal del dinero por el economista español Martín de Azpilcueta allá por el sigo XVI, viene a reflejar la impaciencia intrínseca a nuestra propia existencia efímera, así como el coste de oportunidad del no actuar.

De hecho, si damos por sentada la hipótesis de que los datos se han erigido como un activo económico más en empresas y organizaciones de todo tipo, es natural deducir que es preferible recibir datos sobre los que actuar ahora que, digamos, “mañana”. Es decir, los datos, al igual que los euros, pierden potencial de actuación conforme pasa el tiempo.

Un lector perspicaz debe estar pensando que lleva varios años escuchando justamente el mensaje contrario: almacenar grandes cantidades de datos históricos y analizarlos es justamente la promesa transformadora de la revolución big data. Es decir, ¡los datos, como el vino, ganan valor con el tiempo!

¿Cómo reconciliamos estas dos posiciones? La realidad, ambas son ciertas, solo depende de la óptica desde la que se mira.

FIGURA 1. Valor de los datos agregados frente a los datos atómicos. Fuente: DXC Technology.

Como se observa en la Figura 1, empresas y organizaciones de todo tipo han encontrado numerosas formas de generar valor de datos agregados históricos, desde  un  procesamiento  más  tradicional (D) basado en el análisis descriptivo de los datos —para, por ejemplo, encontrar patrones cruzando diferentes fuentes o entender tendencias temporales— hasta  análisis  sofisticados (C) basados en aprendizaje automático, que normalmente son más finos a medida que aumenta el volumen y la profundidad de los datos. Es más, como se puede apreciar en el gráfico, es necesario contar con una cantidad mínima (E) para tan solo empezar a generar los modelos.

Estas son las bases del big data: Cuantos más datos agregados, y con mas históricos, mejor.

Ahora bien, el fast data tiene que ver con cómo actuamos de forma analítica sobre el dato atómico y fresco para poder influenciar el evento que lo ha generado. El mundo fast data busca actuar de forma analítica sobre el evento mientras se genera (A). Tiene un tiempo máximo de actuación (B) y, una vez que se ha superado este umbral, el potencial de actuación resultante es marginal.

Por tanto, cuanto más “fresco” y desagregado esté el dato, mejor.

El valor del dato

Como vemos, la naturaleza del valor del dato cambia. Piense por un momento en el abanico de posibilidades que se abre dentro del contexto de su organización. Pero ¿por qué ahora? Existen tres factores esenciales que hacen posible la aparición de este fenómeno:

  • En primer lugar, necesitamos modelos que puedan ser evaluados conforme llegan los datos. La construcción de estos modelos normalmente se genera a partir de datos históricos y análisis avanzados. De alguna forma, el big data ha sido un prerrequisito para la aparición del fast data; se ha generado así un círculo virtuoso basado en la retroalimentación.
  • Capacidad de cómputo on the edge. Poder procesar miles de eventos por segundo y aplicar modelos sobre ellos era, hasta la aparición de modelos de procesamiento distribuidos en memoria, una quimera.
  • Por último, pero no por ello menos importante, hay que tener en cuenta que prácticamente cualquier evento asociado a un proceso de negocio, sea el que sea, está asociado a la generación de datos, desde pedir un taxi con Uber hasta comprobar el estado de un ítem en un almacén sensorizado mediante IoT, pasando por comprar productos frescos en Amazon.

Dicho esto, tomar decisiones en tiempo real no es nuevo; cualquier organización cuenta con sistemas de soporte operacional para, por ejemplo, vender un producto mediante el canal online, dar de alta o baja a un cliente o calcular el margen de una operación financiera. Normalmente, el ámbito de toma de esta decisión está restringido al domino operacional donde se encuentra (ERP financiero, CRM, la aplicación web de venta online).

La promesa del fast data pasa por presentar un enlace entre la riqueza analítica de la información almacenada y procesada por el big data y su puesta en escena (acción). La novedad radica en poder tomar decisiones o emprender acciones basadas en la ejecución de modelos complejos sobre datos en tiempo real.

FIGURA 2. Fast data como enlace entre el mundo operacional y el informacional. Fuente: DXC Technology.

En la Figura 2 podemos ver cómo la capa fast data se sitúa como un soporte informacional para mejorar la toma de decisión de los procesos de negocio operacionales de una organización. De esta forma, se presenta un enlace bidireccional entre dos mundos que tradicionalmente se han comunicado de forma unidireccional. El debilitamiento de esta clásica frontera entre el mundo operacional y el informacional presenta toda una serie de nuevas oportunidades de negocio que son potencialmente diferenciadoras para multitud de industrias. En concreto, el fast data plantea tres áreas principales que son de actuación inmediata:

  • Hiperpersonalización y mejora de la experiencia del cliente, empleado o proveedor. Los procesos de negocio tradicionales pueden optimizarse y adaptarse en tiempo real dependiendo del comportamiento o perfil del agente externo con el que se interactúe. Generar ofertas en tiempo real mediante pricing dinámico, desarrollar el marketing geoposicional o habilitar la preconcesión de créditos son posibilidades que pueden hacerse realidad mediante la aplicación de fast data.
  • Extrema eficiencia operacional con granularidad fina. Potenciar los procesos de negocio operativos a través de información con base analítica, y en tiempo real, permite realizar planificaciones más ajustadas para, por ejemplo, mejorar la gestión de inventarios, actuar ante eventos de fallo o patrones de fraude, llevar a cabo la monitorización analítica de infraestructuras y, en general, mejorar la predictibilidad del negocio.
  • Construir nuevos servicios o productos en tiempo real. Una vez que se han eliminado las restricciones existentes para poder generar información analítica en tiempo real, las organizaciones pueden capitalizar desde la pura monetización derivada de la venta de los datos hasta, por ejemplo, la generación de partnerships con compañías que tengan algún tipo de interés o relevancia en el contexto de generación del evento.

La promesa de fast data pasa por presentar un enlace entre big data y su puesta en escena

Proyectos fast data

Desde la práctica de Big Data & Analytics de DXC Technology, Luis Velasco plantea algunos consejos para la ejecución exitosa de un programa tecnológico del fast data, suponiendo cierta madurez en proyectos de big data.

Primero, como cualquier transformación tecnológica, es importante entender el valor de negocio generado por la aplicación de analítica avanzada en tiempo real en un proceso concreto. Para ello, habría que plantearse si sería posible mejorar el proceso de negocio mediante la aplicación de analítica de datos. Si la respuesta es positiva, el siguiente paso sería conocer si el tiempo de respuesta de esta analítica tiene algo que ver en la ecuación de valor de este proceso de negocio y, si es casi, cuánto.

Una vez listados y priorizados los posibles casos de uso por valor de negocio, pasaríamos a ver la viabilidad de la solución. Para ello, lo primero que necesitamos es la materia prima: los datos. A partir de aquí se generan varias cuestiones:

  • ¿Qué eventos definen y generan el proceso? ¿Qué calidad tienen? ¿Son accesibles?
  • ¿Cómo de abiertos son los sistemas operacionales que soportan el proceso de negocio? ¿Es posible inyectar resultados analíticos para modelar el comportamiento?
  • ¿Cuáles son los modelos analíticos que es necesario desarrollar (clusterización, clasificación, regresión)?
  • ¿Tenemos los datos históricos suficientes para generar un modelo de calidad? ¿Cuál es la estrategia de recalibración de los modelos?

Resolver todas estas cuestioones de forma clara al inicio del programa disminuye de forma drástica las posibilidades de fracaso.

En definitiva, gracias a los recientes avances tecnológicos, y a las inversiones realizadas por la gran mayoría de las empresas en todo lo relacionado con el big data, las promesas de la tan añorada zero latency enterprise parecen estar más cercanas que nunca.

En el contexto actual, unos segundos después ya es demasiado tarde.