Hacia una data driven company. Cuenta con una amplia experiencia en el ámbito de la tecnología, tanto a nivel nacional como internacional. Hace veinte años apostó por el mundo del dato, en HP primero y después en DXC Technology, compañías en las que ha ocupado diferentes roles relacionados con la práctica de big data y analytics, en el desarrollo de la estrategia de ventas y en delivery. Durante estos años se ha centrado en proyectos de data management en algunas de las principales firmas financieras de nuestro país, y también en del sector público.

¿Las empresas son conscientes ya del valor del dato?

Bueno, hay empresas que llevan muchos años invirtiendo y trabajando en el dato, que realmente se lo creen y tienen una estrategia clara de hacia dónde quieren ir y qué puede ofrecerles ese dato. Pero luego encontramos muchísimas empresas, algunas de ellas bastante grandes, que no han hecho prácticamente nada. Esta es la causa de que estén perdiendo posicionamiento y competitividad, y corren el riesgo de que nuevos actores les pasen por la izquierda, incluso con un producto inferior.

Sorprende ver que hay muchas empresas que básicamente han hecho cuatro pilotos, pero no cuentan con la estrategia o la capacidad de cambio cultural necesarias.

El dato que antes se tiraba ahora se puede monetizar, aprovechar para lanzar nuevas líneas de negocio

Antes, el dato era algo que se tiraba. Hace años, cuando se daba de baja un coche simplemente se amontonaba en un espacio, sin ninguna gestión. Ahora, cuando vas a un chatarrero está todo catalogado, tageado, digitalizado. De hecho, sacan más beneficio de la chatarra que de un coche nuevo, porque lo venden por piezas y saben lo que demanda el mercado.

El dato que antes se tiraba ahora se puede monetizar, aprovechar para lanzar nuevas líneas de negocio que van a producir grandes beneficios.

¿Esto está relacionado con el tamaño o el sector?

Es cierto que sectores como la banca y las telco son, quizás, los que más han invertido. Ambas industrias cuentan con una enorme cantidad de información, saben cómo utilizarla y esto les permite tomar decisiones en tiempo real adaptando estas tecnologías a sus negocios. Las empresas del sector retail se están moviendo también bastante, empiezan a personalizar a su cliente, a saber qué necesita; aunque aún tienen un recorrido interesante por delante.

Otros sectores, como la industria, por ejemplo, están en mitad del pelotón. Algunas de estas empresas están invirtiendo muchísimo, y lo tienen muy claro (industria 4.0). Están apostando de forma clara por el IoT —sensorizar las fábricas y los procesos— para luego dar el siguiente paso: analizar esa información y tomar decisiones en tiempo real para aumentar la producción, mejorar calidades o hacer más eficientes los procesos.

A la cola está el sector público, que todavía tiene mucho por hacer. Es cierto que hay muchos PERTE (proyectos estratégicos para la recuperación y transformación económica) que pueden ser un acicate para lanzar estos procesos, aunque todavía tienen que acelerar mucho. Hay que recordar que se trata de uno de los sectores que más datos tiene y que más datos puede conseguir. Por ejemplo, tenemos como cliente al Gobierno de Flandes, que aplica una gestión digitalizada de todos sus ciudadanos: sabe lo que pagan, lo que consumen en electricidad…

Aquí no se está dando este tipo de colaboración entre los ámbitos público y privado. Los sistemas que hay en el sector público son mayoritariamente legacy, cuesta mucho ir a la nube, que es un paso prácticamente obligado para casi todos estos proyectos. Además, debe existir también el valor para tomar estas decisiones y asumir riesgos en determinados casos.

¿Cómo se llega al modelo data driven?

Data driven es el concepto clave: direccionar a la empresa basándote en el dato. Aquí hay que hablar de estrategia y de cambio cultural. Este último punto es vital. Puedes tener una estrategia clara, pero si no alineas a la organización, no funciona. Esto no va de tecnología. La tecnología está ahí, pero es una commodity, es como la electricidad. El cambio cultural, y entender los procesos desde el ámbito funcional, es lo que realmente te va a hacer diferente.

Big bang o pequeños proyectos

Al definir la estrategia yo desaconsejaría plantear un big bang. Mi recomendación es conformar grupos dinámicos, que sepan lo que quieren, que tengan la información más o menos clara… A partir de ahí, habrá que empezar a crear pequeños productos que entren en producción y ofrezcan resultados.

Una vez que creas un producto de estos, si triunfa, y normalmente lo hace, se expande a toda la organización.

Tener una estrategia clara significa poner el foco en, por ejemplo, evitar la pérdida de clientes, mejorar la calidad de servicio, hacer más eficientes los procesos, ser el líder del mercado en precio… Esto hay que tenerlo muy claro y, a partir de ahí, ver cómo trabajar con los activos disponibles.

Para ello debe haber un liderazgo claro en la compañía, un sponsor que sea el que marque el paso de ese cambio cultural y el que mueva los datos. Además, hay que tener claro que en este proceso de descubrimiento van a aparecer muchas “vergüenzas: información que se oculta (por temas legales, por desconfianza o porque genera preguntas incómodas) pero que debe ver la luz. Yo me he topado con algunos proyectos que no terminan de triunfar, o que se han cancelado, simplemente por política: porque hay información que no puede moverse de un sitio a otro.

Tener una estrategia clara significa poner el foco en algo concreto y, a partir de ahí, ver cómo trabajar con los activos disponibles

Supongamos que tienes que cambiar la calefacción de tu casa. Antes de empezar a mirar marcas de calderas o radiadores, lo que proponemos es que comiences entendiendo cómo es tu casa, cuántas ventanas tiene, si está bien aislada, qué uso se hace de la energía… A partir de ahí, plantear si se debe optar por calderas de combustión, aerotermia o lo que sea en función de variables como el coste de la energía, las previsiones de evolución de esas tecnologías, etc. Primero hay que saber cómo estás y hacia dónde quieres ir, y después montar el modelo que necesites.

¿En cuanto a los beneficios que reporta?

Aquí entra en juego la estrategia: ¿cuál es el reto de negocio que quieres atacar, qué activos necesitas y con cuáles cuentas? Es decir, si queremos hacer paella, deberemos buscar los mejores arroces al mejor precio, tener las verduras en el momento adecuado… No se deben poner esfuerzos en traer nueces o avellanas, porque no las vas a utilizar.

El siguiente paso es medir. Saber cuánto cuestan ahora las cosas y cuánto van a costar si lo hago de otra forma. Quizá solo haya que cambiar el proceso, o modificarlo y validarlo de una forma concreta. Cuando hablamos de data driven no es necesario hacer grandes proyectos, montar grandes sistemas o plataformas increíbles… Puede ser algo tan simple como hacer más eficientes determinados procesos y, a través de un modelo de BI o un cuadro de mandos que lo monitoriza en tiempo real, saber si estamos acertando, si la tendencia sube o baja… No nos compliquemos en modelos matemáticos muy complejos cuando igual no nos llevan a nada.

Hay que buscar siempre la solución más simple al problema. Meternos en tecnologías y modelos complejos, en deep learning… está muy bien, pero cada herramienta es para lo que es. Siempre hay una solución simple para un montón de cosas, pero hay que tener madurez para llegar a ese punto.

Datos, datos y más datos

Hay muchos datos, pero no todos valen. Normalmente se utiliza solo un 20% de los datos que hay en una organización, y, de ellos, hay que confirmar que tengan validez, que sirven para nuestro propósito. Un dato sobre algo que pasó hace dos años es posible que ya no sirva para nada, o el que proviene de la sensórica de una máquina, que no tiene mucha validez si no es tiempo real.

Cada dato vale para un fin y es útil en un momento determinado. Es muy importante que los procesos de carga se adecúen a lo que se necesita en cada momento, y que se deseche la información que no vale. Muchas veces se carga más información de la necesaria que se convierte en un cúmulo de datos sin valor que están estorbando, que no se están gestionando y que, incluso, pueden generar problemas de compliance.

Cada dato vale para un fin y es útil en un momento determinado

Por eso es tan importante el gobierno del dato. Hay que saber quién accede y cómo, quién lo gestiona, cómo voy a validarlos… Este es un punto clave y en muchas organizaciones se está dejando de lado. Terminan creando un sistema complejo y se dan cuenta de que también ha aumentado la dificultad para gobernarlo, algo que termina retrasando los proyectos. Es mejor diseñarlo bien al principio.

Es lo que permite hacerlos accesibles

Una buena arquitectura es lo que define un buen producto, es lo que va a hacer que la explotación del sistema sea eficiente. Son los cimientos del data Lake o del data warehouse. Imaginemos una ferretería. Cuando pides un tornillo del seis de color avellanado, el dependiente va a la cajita correcta y lo encuentra a la primera. Previamente ha habido un proceso de arquitectura que ha definido dónde se debe guardar cada tornillo, tuerca, etc. Todo está tageado y digitalizado para saber dónde está, cuántos hay…

Eso es lo que proporciona la arquitectura. Hacer que un dato, que alguien ha cargado en el formato adecuado y en un momento preciso, llegue a la persona que deba explotar esa información.

Imaginemos una ferretería. Todo está tageado y digitalizado para saber dónde está, cuántos hay…

Sin una buena arquitectura, por seguir con el mismo símil, es como si un camión hubiera descargado todas las piezas (tornillos, tuercas…) en el suelo y el dependiente tuviera que ponerse a buscar ahí el tornillo.

Después, la información debe llegar a la persona adecuada y en el formato indicado para que pueda explotarla. Ahí hay múltiples tecnologías: cuadros de mando, alertas, ficheros que se descargan, todo ello pensado para tomar decisiones que afecten a una máquina o que habiliten un crédito. Eso se puede amoldar a las características de cada organización.

Un paso natural es la automatización

Todavía no es algo muy extendido. Hay empresas que ya han creado muchos modelos analíticos y sistemas que, básicamente, integran toda esa información de una forma automática y, a través de modelos como MLOps, controlan que estos servicios vayan trabajando y que se integren dentro de la organización. Además, permiten que en el momento en que este servicio falle —si la eficiencia cae por debajo del umbral marcado—, el sistema, de forma autónoma, pueda volver a entrenarse o avisar de que ha perdido eficiencia para que tomemos una decisión (lo rediseñamos o lo reentrenamos).

El problema de no hacer nada

El retorno de estas técnicas es evidente. Un crédito fallido se traduce en una pérdida elevada de ingresos para la entidad, pero, además, puede implicar problemas legales, reputacionales… El coste puede ser elevadísimo.

En un ejercicio que hicimos para una de las tres entidades más importantes del sector bancario en España calculamos lo que supondría la caída del servicio web. Según nuestros datos, superaba los dos millones de euros por hora. Eso solo de costes directos, no se incluía lo relacionado con la reputación, con la pérdida de negocio, etc. La repercusión era muy elevada.

Si esta empresa cuenta con soluciones que estén analizando cómo funciona el sistema, y previendo si puede haber una caída (por cualquier problema en la infraestructura de TI, por ejemplo), el ahorro es muy elevado. Si esto lo trasladamos al ámbito de la industria, la parada de una gran máquina de fabricación puede derivar en corte de producción, penalizaciones por tiempos de entrega acordados, etc.

Lo que hay que evitar son los silos de información. En el sector público tienen muchos modelos creados en los que se carga la información de la que se obtiene un resultado. El siguiente proceso requiere que los datos se vuelvan a cargar de nuevo. Esto no es eficiente a nivel tecnológico. Pero, yendo más allá, hacia las data driven, es esencial automatizar estos procesos internos.

Por ejemplo, cuando el agente de un call center descuelga una llamada, debería saber a quién tiene al otro lado, si le vamos a dar un crédito o le voy a hacer una recomendación comercial, etc. Esta información debería estar disponible en tiempo real para responder a esa persona en particular. Lo ideal es que la información se integre dentro del proceso lógico y del flujo de la compañía en tiempo real.

Lo ideal es que la información se integre dentro del proceso lógico y del flujo de la compañía en tiempo real

Aunque ya hay proyectos en este sentido, no es lo habitual. Pocas empresas están a ese nivel. Nosotros, por ejemplo, estamos trabajando con empresas muy grandes—empresas del IBEX 35— que sí que están invirtiendo en este tipo de tecnologías. Pero a las medianas empresas les queda todavía mucho recorrido, y no digamos a las pequeñas: muchas de ellas están todavía por hacer un BI en condiciones.

Ese es el valor del conocimiento…

La automatización basada en inteligencia artificial y machine learning es la base y, seguramente, el área en la que tiene más visibilidad es la de los procesos comerciales, a la hora de ganarse al cliente, conocerlo, saber cómo se comunica contigo.

Aquí la omnicanalidad desempeña un papel crucial. Necesitamos tener toda esa información y utilizarla en el momento adecuado, ya que la comunicación en caliente es el punto álgido para hacer una operación. En este escenario, el caso de los call centers es especialmente evidente: sé quién eres, sé lo que quieres, sé lo que te gusta y te lo voy a dar el momento adecuado, cuando me lo pides. El just in time para una persona muy concreta, no para un segmento.

Recuerdo las antiguas tiendas de barrio. El tendero te llamaba por tu nombre, sabía qué te gustaba, quiénes eran tus padres. Eso sí que era un know your customer perfecto. La idea es ir avanzando en ese journey del cliente.

El siguiente paso es la analítica predictiva

El BI nos ha permitido entender cada vez mejor lo que ha ido pasando, con mayor o menor profundidad, y, quizá, nos permita dar también un paso hacia el análisis what if: qué pasaría si. El gran salto viene al tratar de adelantarse al futuro. Esto va a suponer un importante punto de diferenciación para las empresas, una palanca clave para su competitividad.

Es esencial que la inteligencia artificial esté integrada en la mayoría de los procesos de negocio, que constituya un indicador de apoyo más para que los responsables de las empresas tengan información sobre aquello que les puede afectar en el futuro y puedan tomar decisiones.

No nos compliquemos en modelos matemáticos muy complejos cuando igual no nos llevan a nada

Un ejemplo curioso de lo que puede aportar: nuestros compañeros de Australia han trabajado sobre el histórico de carreras de caballos en ese país durante los últimos diez años, examinando la forma de correr a través del análisis inteligente de las imágenes, aplicando estadística… Esto les permite determinar quién será el ganador de la carrera durante los primeros veinte segundos de esta, con una precisión del 90%, una información que se muestra en tiempo real en pantalla. No tiene mucha utilidad, pero sí dice mucho de hasta dónde se puede llegar.

Otro ámbito de aplicación muy claro es la sanidad, donde, por desgracia, todavía hay largo recorrido por delante. Estas tecnologías ayudarían mucho a los facultativos a la hora de conocer mejor al paciente, pues les permitirían contar con un cuadro de mando que ofrezca una visión de su historial en tiempo real. Eso es relativamente sencillo, pero supondría una mejora evidente de la calidad asistencial.

¿Todo va a quedar en manos de las máquinas?

La persona es clave. Si hacemos que la máquina haga nuestro trabajo, tenemos un problema. Una organización data driven que solo se fíe de los datos está abocada al fracaso. Las personas no somos previsibles. Hay un modelo muy claro, Rafael Nadal, que no hace más que romper lo que marcan la lógica o las estadísticas.

Como el ser humano es imprevisible, no puede ser una máquina la que tome las decisiones finales. Es la persona, con la ayuda de los datos, la que debe decidir; ahí es donde entran la intuición de negocio, la experiencia, etc.

Hay que entender que los datos son elementos facilitadores para que las personas puedan hacer su trabajo y tomen decisiones a partir de información objetiva. No podemos sustituir una toma de decisión por una máquina.