La automatización inteligente, utilizando algoritmos de inteligencia artificial, permite mejorar el rendimiento de las aplicaciones e infraestructuras TI a través de la detección y eliminación de problemas para mejorar los tiempos de respuesta de los sistemas y reducir los costes totales.

Con aplicaciones de software más o menos innovadoras, y de mayor o menor calidad siempre que cumplan unos mínimos, los bancos están obligados a “abrir todos los días” cumpliendo con los requerimientos normativos, pero también con unas expectativas de los clientes en cuanto a disponibilidad, tiempos de respuesta, usabilidad y calidad del servicio, más elevados que nunca.

Los responsables de negocio y de TIC de las entidades bancarias son conscientes de esta situación, pero no lo son tanto de los costes añadidos que están asumiendo debido a los fallos y las deficiencias de su software, que, además de afectar a su operativa, impactan en el consumo de infraestructura y en el tiempo necesario para su resolución. Este tiempo y estos recursos son costes que, en última instancia, terminan repercutiendo en la cuenta de resultados.

Cuando se trata de rendimiento, la banca podría ganar más de lo que gana, porque hay un ancho margen para el ahorro

En muchas entidades, mantener el nivel de servicio al cliente implica sacrificar al negocio. Cuando se escucha a CIO y a profesionales TI de la banca española, queda claro que las áreas de tecnología han optado por no arriesgar el servicio ni la satisfacción del cliente, tanto interno como externo. Pero esa filosofía tiene inevitablemente un coste cuya asunción exige contar con el visto bueno de las áreas financieras, del CEO y, en última instancia, de los consejos de dirección.

Rendimiento o mantener las luces encendidas

Pero el coste de mantener esta tendencia no deja de crecer. Los datos no mienten. A pesar de la voluntad y el compromiso innovador de la banca, el gasto que asume el sector para mantener su negocio en marcha sigue siendo superior al destinado a innovar. En 2008, las partidas destinadas a innovación y mantenimiento eran del 49,3% y del 50,7% respectivamente; en los últimos años, el peso de la última partida destinada al mantenimiento se ha incrementado hasta el 60%.

¿Por qué esta abultada partida? De acuerdo con nuestra experiencia, el rendimiento tecnológico no es todo lo adecuado que debería y está lastrando la capacidad de los bancos para innovar.

El entorno tecnológico de un banco, especialmente el de los que no han nacido en el mundo digital y cuyas raíces se unen en el mundo mainframe, no es sencillo. Para comprobarlo basta un dato: de media, entre el 40% y el 60% de sus componentes técnicos cambia cada año, y, según nuestras informaciones, el 50% de ellos presenta alguna mala praxis. Además, y esto es aún más preocupante, cuando se modifica o se actualiza el software, la mayoría de las malas praxis persisten porque ni están identificadas ni existen mecanismos para detectarlas y modificarlas.

Cuando se modifica o se actualiza el software, la mayoría de las malas praxis persisten

La problemática es generalizada e independiente de los entornos. Aunque es cierto que muchos de los nuevos bancos han nacido en el mundo digital, y que los más veteranos han migrado parte de sus aplicaciones a la nube, muchos de los procesos verdaderamente nucleares de la banca (onboarding de clientes, core banking, gestión de cobros y pagos, riesgo y cumplimiento) todavía acaban en el mainframe; el mal llamado legacy está compuesto de sistemas que están en plena forma en muchas entidades debido a las garantías que ofrecen en términos de fiabilidad, escalabilidad y seguridad.

Como sabe muy bien IBM, todo lo que acaba en el mainframe tiene un coste que no es despreciable; sin embargo, como tampoco desconocen AWS o Microsoft, lo que acaba en la nube también lo tiene.

Costes y disponibilidad

Además, las carencias en materia de rendimiento no solo incrementan los costes, también impactan en otros indicadores clave como, por ejemplo, la disponibilidad. Las entidades siguen teniendo problemas de este tipo en alguna de sus operativas básicas, y con más frecuencia de lo que sería deseable. Además, estos fallos pueden tener un efecto multiplicador en momentos críticos, en los que se dispara el número de operaciones, como se demostró durante la pandemia y todavía hoy sucede.

En la mayoría de los casos, los orígenes de estas deficiencias se encuentran en las arquitecturas y en el software

En la mayoría de los casos, y a pesar de que los bancos aseguran tener plenamente interiorizada la cultura de la calidad en el desarrollo, los orígenes de estos fallos, errores y deficiencias se encuentran habitualmente en las arquitecturas y en el software. Además, con la particularidad (ley de Pareto) de que solo unas pocas casuísticas son responsables de la mayoría de los problemas. A esta situación se suma un problema añadido: la alta dependencia de terceros proveedores que, en gran medida, son los responsables de las ineficiencias.

Por otra parte, aunque las entidades financieras también disponen de una miríada de soluciones de monitorización y herramientas APM, no logran dotarse de una visión única, completa y detallada de lo que está sucediendo.

Automatizar la mejora continua

Como consecuencia de todo ello, cuando se trata de rendimiento, hay un ancho margen para el ahorro, lo que derivaría en mayores beneficios para la banca. Ese es justamente el fin último de una central del rendimiento – oficina técnica del rendimiento como BOA (Boost & Optimize Applications).

La plataforma BOA, que actualmente gestiona más de quinientos millones de procesos de negocio, fundamentalmente en los sectores bancario y asegurador, tiene un triple objetivo: en primer lugar, mejorar el rendimiento de las aplicaciones e infraestructuras TI a través de la detección y eliminación de problemas; incrementar los tiempos de respuesta; y, por último, facilitar la reducción de los costes totales.

BOA opera en cinco fases que se retroalimentan: captura de datos; censo de procesos y de las detecciones diarias; análisis de los datos y detección de oportunidades de mejora; seguimiento del desarrollo; y verificación del cumplimiento e impacto en los objetivos medido a partir de una serie de KPI. En todas ellas, la automatización inteligente es cada vez más importante. En la actualidad, los algoritmos de BOA cubren el 79% de los problemas o malas prácticas, un punto importante si tenemos en cuenta que, en el entorno TI, las 50 casuísticas más comunes son responsables del 80% de los problemas.

En el entorno TI, las 50 casuísticas más comunes son responsables del 80% de los problemas

Además de automatización e inteligencia para la mejora continua y la eliminación de las eficiencias que lastran el rendimiento, BOA proporciona al negocio una visión completa y orientada de lo que está sucediendo. Lo hace mediante dashboards con KPI o indicadores clave para los distintos perfiles: desarrollo, arquitectura, canal negocio, dirección y producción.

Se trata de que los problemas e ineficiencias no pasen desapercibidos y, por el contrario, sean objeto de control. Cuando este control no existe, el negocio está obligado, sin saberlo, a soportar unos sobrecostes —en infraestructura y los derivados de la reiterada modificación del software— que, según nuestra experiencia, rondan el 15% de las inversiones en tecnología, que no es poco.