“La minería de procesos utiliza el tesoro que representan los datos en una compañía”
En 2016, junto con Thomas Baier y Karina Buschsieweke, fundó Lana Labs, una compañía especializada en la automatización del análisis de procesos de producción y de negocio a través de inteligencia artificial. Su objetivo es hacer que las empresas sean más inteligentes, más eficientes y rápidas. Process Mining LANA es la joya de la corona de una firma que promete un interesante potencial a raíz de la reciente adquisición por parte de Appian.
¿Qué es la minería de procesos? ¿Qué problemas resuelve?
En general, la minería de procesos (process mining) es una tecnología que utiliza el tesoro que representan los datos en una compañía. Es una especie de radiografía que muestra el funcionamiento interno de los procesos de negocio de una empresa. De forma similar a lo que hace un médico cuando realiza un escáner a una persona y ve si algo está mal, nosotros hacemos lo mismo con los procesos de una empresa. Para ello empleamos trazas digitales (datos) que proviene de los sistemas de TI como puede ser los ERP, los sistemas de fabricación o de ejecución, etc. Cada entrada manual o automática en un sistema generalmente se almacena en las bases de datos del sistema y contiene marcas de tiempo (timestamp). Estos rastreos digitales con marcas de tiempo los utilizamos para identificar los procesos y cómo se ejecutan.
La integración con Appian nos permite ofrecer el ciclo de vida de optimización continua dentro de una sola plataforma
Esto brinda transparencia a la compañía y le muestra cómo se comportaron los procesos con más de cientos de miles de ejecuciones y todas las variaciones. Con estas cifras y hechos se puede identificar el potencial de optimización que tienen, el de riesgo, el de automatización o el de estandarización, todo ello de forma continua. En resumen, recopilamos datos y proporcionamos a los clientes, de forma automática, información y hechos que permiten saber dónde el proceso es lento, usa muchos recursos, no está estandarizado o dónde pueden no adherirse al modelo objetivo (la forma en que se supone que debe ser ejecutado).
¿Cómo se recopilan todos esos datos?
En nuestro caso, en la mayoría de las ocasiones los datos ya están ahí. Muchas empresas, por ejemplo, utilizan SAP, Oracle o cualquier otra solución de este tipo, o tienen un sistema de ejecución de fabricación o de gestión de incidentes. Cada vez que todas estas plataformas o soluciones realizan una determinada tarea registran un timestamp en la base de datos, que utilizamos para generar un registro de eventos. No es necesario que sea como un archivo de registro (log) normal. Aunque también podríamos utilizarlos, en la mayoría de los casos obtenemos la información de las bases de datos relacionales y, en general, buscamos marcas de tiempo que representan eventos y actividades.
Para conectarnos a estos sistemas utilizamos una serie de conectores, y luego tenemos que identificar las tablas de la base de datos que necesitamos. En la mayoría de los casos habrá que hacer algún tipo de transformación de estos datos para convertirlos a un formato que nuestros algoritmos sean capaces de leer e interpretar, para proporcionar rápidamente, y de forma automática, información y gráficos sobre el proceso.
Por poner un ejemplo, digamos que se ha recibido un pedido, que se ha enviado a la línea de producción para que sea fabricado. Después, la mercancía se ha pasado a logística para que sea entregado. Además, también se ha generado y enviado la factura correspondiente, y se ha pagado. Este es el tipo de información que interesa sobre los procesos, y toda ella está almacenada en las bases de datos.
¿Qué se hace después con toda esa información?
Obviamente, hay diferentes casos de uso y todo depende de lo que se esté analizando. De cualquier forma, en la mayoría de los casos se trata de conseguir una mejora en el rendimiento. Por ejemplo, una empresa puede querer reducir los tiempos de ciclo de un proceso, o estandarizarlo para eliminar todas aquellas variantes que son innecesarias. En ocasiones, esta estandarización del flujo del proceso sirve también para prepararlo para la automatización, y así poder introducir bots o sistemas de workflow. Pero también hay otros casos de uso, como pueden ser la migración de sistemas, compliance, reducción de «reprocesos» y actividades de mejora similares.
Lo normal es que las empresas ya tengan una idea acerca de cómo se supone que debe ejecutarse un determinado proceso. Lógicamente, el modelado de procesos de negocio (BPM) ha sido muy importante durante mucho tiempo, y todavía lo es. La idea es que se pueda conectar un modelo de mejores prácticas con nuestro software y obtener un diagnóstico automático entre el modelo de proceso objetivo y el modelo tal cual se está ejecutando (el gráfico de proceso descubierto automáticamente). Esto nos permite saber, por ejemplo, en qué área no se ejecuta el proceso como se supone que debe hacerlo, o dónde se están omitiendo determinadas actividades, como, por ejemplo, el control de calidad, que podría dar lugar a un mal producto.
En la mayoría de los casos de lo que se trata es de conseguir una mejora en el rendimiento
Con nuestro diagnóstico automático, basado en el modelo objetivo o en el de mejores prácticas, podemos mostrar a las empresas, de forma automatizada, la frecuencia con la que se desvía del modelo objetivo y, al final, ayudarle a definir métodos y medidas de optimización.
¿Qué papel desempeñan el machine learning y la inteligencia artificial?
Nuestros algoritmos no solo examinan el proceso en cuestión, sino también los datos que lo acompañan, con el fin de identificar patrones. Esto nos permite, por ejemplo, entender por qué se ha omitido una confirmación o por qué algunas entregas se han retrasado.
El objetivo de nuestra solución es ayudar a las empresas a identificar áreas de interés y la causa raíz de los problemas. De este modo utilizamos machine learning e inteligencia artificial para comprender por qué sucede todo esto. Lo que perseguimos es que el analista no tenga que indagar en todo este conglomerado por sí mismo. En general, queremos facilitar lo máximo posible la tarea de identificar los problemas y sus causas fundamentales, para que puedan resolverse de la forma más sencilla posible.
Otro de los beneficios que nos proporcionan estas tecnologías es todo lo relativo a la posibilidad de predecir qué es lo que va a pasar en función de los datos que tenemos. Si, por ejemplo, nos enfocamos en el envío de productos, es importante poder identificar qué procesos se están ejecutando y si se van a retrasar, para poder actuar antes de que sucedan los problemas.
¿Quién suele ser vuestro interlocutor en las empresas?
Normalmente recibimos consultas desde diferentes áreas empresariales. Por supuesto, una de las más habituales proviene desde la alta dirección, porque quieren dirigir sus procesos de forma activa y aumentar la eficiencia o la satisfacción del cliente, pero también recibimos consultas que proceden de otros departamentos. Por ejemplo, a nivel de operaciones, a menudo nos contactan los jefes de departamento; en el caso del área de Finanzas, la petición suele llegar por parte de los responsables de los procesos de compra o de venta; en el ámbito de la fabricación suele ser un jefe de producción global, que lo que busca es estandarizar un proceso de producción en los distintos centros.
¿Cuánto tiempo se tarda en desplegar vuestras soluciones?
En general, el despliegue del sistema en la nube es inmediato y, cuando se trata de un modelo en on-premise, la mayoría de las veces se tarda entre dos y cuatro horas en configurarlo una vez que se tiene el servidor virtual. A partir de ahí, dependiendo de la complejidad de los datos, el proyecto puede durar entre dos y tres semanas, o entre dos y tres meses para obtener las primeras conclusiones.
Lógicamente, todo esto depende en gran medida de la complejidad de los sistemas y de cuántos de ellos estén implicados. Además, hay que tener en cuenta que es necesario hacer una transformación de los datos, lo que puede conllevar también un proceso de normalización de la información procedente de diferentes sistemas de TI, reunirla y validarla. Todo esto es muy importante.
¿Vuestra solución impacta de alguna forma en los equipos del cliente?
No. Por supuesto, dependiendo de cómo esté configurado el sistema, tal vez sea necesario ajustar la tasa de extracción de datos para no sacarlos todos a la vez, especialmente si se trata de datos en vivo o de sistemas de producción que estén en funcionamiento. Pero, en su mayor parte, no hay ningún impacto perceptible en los sistemas del cliente mientras estamos ejecutando nuestro producto.
¿Qué ventajas aporta vuestra tecnología respecto a otras propuestas del mercado?
Destacaré algunas áreas en las que nuestra solución es diferencial. Por ejemplo, puedo empezar hablando del análisis de acción objetivos (la verificación de conformidad), especialmente cómo lo hacemos nosotros. La diferencia está en la profundidad y en los resultados que obtenemos, que son mucho mejores que los de nuestros competidores. La razón es que somos capaces de proporcionar información sobre dónde la empresa tiene desviaciones con respecto a su modelo objetivo, y qué tipo de desviaciones ocurren.
Esa es una de las áreas, la otra está relacionada con el análisis automático. Esta es una de las razones por las que creamos la empresa. Thomas Baier y yo terminamos nuestro doctorado en Minería de Procesos y Optimización de Procesos Empresariales en 2015. En ese momento analizamos el mercado de la minería de procesos y vimos que había mucha innovación en investigación, pero todavía no se estaban implementando en ninguna herramienta de minería de procesos como tal. Así que decidimos que era necesario llevar estas innovaciones al mercado.
Por lo tanto, la automatización y la automatización del análisis son dos cosas en las que estamos muy interesados. Nuestro objetivo es ser capaces de llevar la minería de procesos —y la preparación de datos— a usuarios de negocio que no sean necesariamente expertos en estos procesos, pero que puedan optimizarlos de forma sencilla. Con nuestra ayuda es posible averiguar qué hacer para, por ejemplo, mejorar la eficiencia en torno a un 30%.
Por otra parte, nuestro módulo de preparación de datos de low-code/no-code ayuda a acercar a los usuarios de negocio todo lo relacionado con la preparación de datos que debe realizarse antes del análisis. Con otros productos de la competencia es necesario contar con personas con experiencia en TI para realizar esta transformación. En nuestro caso, a través de la nueva interfaz de usuario low-code, esto ya no es necesario. Basta con un clic para poder transformar los datos y analizarlos.
Por otro lado, disponemos también de una API abierta para que las empresas pueden reutilizar lo que crean, conectarlo a otros sistemas e incluso construir cosas nuevas.
¿Cómo se integra con Appian y cuál es el beneficio añadido de trabajar juntos?
Según íbamos trabajando con nuestros clientes nos fuimos dando cuenta de que, una vez realizado el análisis inicial, que mostraba una enorme cantidad de información sobre el potencial de mejora, surgía la pregunta: ¿qué es lo siguiente? ¿Cómo podemos llevar llevar a cabo esas mejoras? En muchos casos, ahí es donde nos deteníamos, porque nosotros somos expertos en el análisis de procesos y en averiguar lo que hay que mejorar, pero luego hay que mejorarlo realmente.
Este es el núcleo de la plataforma de automatización de Appian, que mejora los procesos a través de digitalización y automatización. Ahora podemos ofrecer el ciclo de vida completo (descubrimiento, diseño y automatización) desde una única plataforma. Primero está el análisis para descubrir los problemas, luego viene el desarrollo del potencial de mejora a través del workflow y la automatización, el seguimiento de estas mejoras y, de nuevo, buscar una mayor optimización a través de la automatización. Todo esto en un ciclo de mejora continua.
Somos capaces de proporcionar información sobre dónde están las desviaciones y de qué tipo son
De esta forma, juntos, ofrecemos la Plataforma de Automatización Low-Code más completa, que incluye desde el descubrimiento al diseño y a la automatización, y luego lo combina todo en un círculo. Esta integración nos permite ofrecer el ciclo de vida de optimización continua dentro de una sola plataforma: primero, entramos a recoger toda la información de los sistemas de la empresa y, después, utilizamos la plataforma de Appian para realizar las correcciones, la automatización de la mejora y la optimización de los procesos.
En cuanto a los siguientes pasos, nuestro principal objetivo se centra en reunir ambas tecnologías en una sola plataforma. Appian es sinónimo de fiabilidad, estabilidad y rendimiento. Actualmente estamos centrados en fijar los estándares al mismo nivel, y luego iremos creando más y más sinergias.
¿Qué tiempo medio se debe esperar para ver las primeras mejoras?
Esto depende siempre del propio proceso. No hay una respuesta definitiva y única para ello. Por ejemplo, en el caso de las empresas del sector de fabricación puede haber un espectro de soluciones muy diferente. Introducir la automatización en una empresa dedicada a la producción puede llevar más tiempo que si se automatiza una tarea en una institución financiera, que ya tiene todos sus procesos totalmente digitalizados. Es difícil dar una cifra concreta, porque realmente depende del proceso y del ámbito en el que te encuentres. Puede oscilar entre un par de días y un par de meses.
Nuestros algoritmos no solo examinan el proceso en cuestión, sino también los datos que lo acompañan
Sin embargo, lo que sí se puede hacer es trabajar simultáneamente de diferentes maneras. Por ejemplo, es posible empezar el minado de procesos primero y luego realizar la automatización, o se puede mejorar la implementación ejecutando nuestro software a la vez, o incluso se puede aplicar la monitorización después para controlar los procesos, con el fin de encontrar nuevo potencial.