En un escenario digital en el que, cada vez más, inciden las disrupciones tecnológicas, es importante clarificar ideas, sentar las bases, decidir dónde queremos ir y en cuánto tiempo, y trazar el camino desde una perspectiva transversal que tenga en cuenta a los principales actores de la organización. La tecnología ya no es un simple eslabón en la cadena de valor. Ahora está integrada en el negocio. Hemos hablado de todo esto con José Antonio Fernández, responsable de Hybrid Cloud en HPE PointNext.

Es una realidad. Las empresas deben adaptarse a un nuevo escenario, con un mercado cambiante, nuevas formas de producir, de distribuir o de consumir… Para ello, aparte de una reingeniería en los modelos, es imprescindible una nueva arquitectura de TI que dé respuesta a las nuevas formas de hacer negocio. Pero, según nos cuenta José Antonio Fernández, “la respuesta no llega solo a través de la tecnología, sino también con modelos de opera­ción diferentes”.

La TI híbrida, (hybrid IT) es el facilitador para que las empresas puedan llevar a cabo esta necesaria transformación digital. Deben evo­lucionar, sobre la cadena de valor tradicional, hacia un modelo cíclico en el que el dato está en el centro, y sirve de guía para introducir cam­bios en cada uno de los procesos, adaptando el producto o servicio a las demandas del cliente o las circunstancias del mercado.

La respuesta que debe llegar desde TI pasa por desarrollar una cadena de valor digital, que fa­cilite la generación y gestión de esos datos, así como el mantenimiento y desarrollo de nuevas aplicaciones con las que darles uso. “El área de TI ya no es solo un eslabón dentro de la cadena de valor de las empresas. Las aplicaciones y la tecno­logía son la base para generar el negocio; son los que traen el dinero a casa”. Se trata de responder a este nuevo escenario digital, dar respuesta a miles o millones de usuarios y conexiones en el tiempo requerido, analizar y dar valor a la in­gente cantidad de datos que se generan y ma­nejan. Para ello, la TI se tiene que construir —y consumir— de una manera diferente.

La TI híbrida es el facilitador
para que se pueda llevar a cabo
esta transformación digital

Evolución de la ti

Hablamos de desarrollar la TI, y para ello es im­portante saber en qué fase de este desarrollo nos encontramos (Figura 1) para cada una de las áreas fundamentales: development process, application architecture, deployment & packaging y application infrastructure. Por ejemplo, si toda­vía se sigue desarrollando de manera tradicional (waterfall) o ya se empiezan a manejar conceptos de Agile o directamente se está dentro de un pro­ceso de DevOps; si se utilizan microservicios en vez de un sistema monolítico, contenedores en vez de servidores físicos o se ha pasado del data­center tradicional a un modelo en la nube.

Pero, aparte de contar con los pilares adecuados en cada una de estas áreas, es también impor­tante garantizar una relación ágil y flexible entre el ámbito de las aplicaciones y el de las infraes­tructuras que las soportan. “Esto se traduce en un modelo con tres áreas principales, desde las que se da respuesta a las cuestiones: cómo proveo los recursos, cómo ejecuto las aplicaciones y cómo las relaciono, ya sea en un contexto tradicional o en for­mato de cloud native application, porque cada una tiene una forma diferente de consumir”.

Nuestro modelo no puede ser monocolor, tiene todas las tonalidades que se necesiten

Si echamos la vista atrás, hace diez años el es­cenario era muy diferente al de ahora. Los cos­tes —y el tiempo necesario— para montar una infraestructura on premise eran muy elevados. Además, la automatización y orquestación de estos entornos no era sencilla, ni existía la su­ficiente flexibilidad a la hora de proveer los re­cursos necesarios (en tiempo y forma) a los de­sarrolladores. Además, había que acometer el pago de todos los recursos (hardware, licencias de software…) antes de que el proyecto tuviera algún retorno. “Esto se convirtió en el caldo de cultivo para el crecimiento masivo de los servidores de cloud pública y, lógicamente, derivaba en una serie de problemas y riesgos para la TI interna: pérdida de control, falta de cumplimiento, seguridad o garantía en los niveles de rendimiento“.

En la actualidad, el escenario ha cambiado. “Los costes son mucho más bajos. Contamos con tecno­logías como la hiperconvergencia o composable infrastructure que facilitan la puesta en marcha de una máquina virtual rápidamente, y de manera automática y desatendida. Además, los proveedores hemos evolucionado para poder ofrecer un modelo de pago por uso; por ejemplo, con nuestra Green Lake simulamos lo que ofrece un entorno cloud pero en formato on premise y con un modelo de pay as you go, en el que los costes están relacionados solo con la infraestructura y los servicios que se utilizan”.

Entre otras cosas, esto permite construir un mo­delo de convivencia entre la nube pública y los servicios e infraestructuras on premise, y asegu­rarse de que cada carga de trabajo esté en el mo­delo adecuado en función de parámetros como la seguridad y el control, los niveles de latencia, el ámbito de trabajo (intelligence edge), etc.

FIGURA 1. Fases de evolución para cada una de las áreas fundamentales.

El datacenter del futuro

Esta evolución hacia el datacenter del futuro se plasma en un escenario (Figura 2) en el que se­guirá existiendo una infraestructura dedicada (para procesos core o legacy, por razones de ren­dimiento, compliance o seguridad, etc.) que con­vivirá con la cloud pública para ciertos contextos, cargas de trabajo o tecnologías específicas. Se trata de buscar el equilibrio: “Pero, muy importan­te, es necesario contar con los adecuados mecanis­mos de control, sabiendo en todo momento dónde están distribuidas las cargas y con la capacidad de moverlas (service management brokering) de un modelo a otro por razones de temporalidad, costes o por lo que sea”.

De esta forma, uno de los conceptos importantes es el de rightmix, es decir, conseguir el equilibrio correcto entre ambos mundos, tener identifica­das las cargas de trabajo en función de los reque­rimientos propios y poder acomodarlas en los di­ferentes modelos que forman parte del hybrid IT. “Si tienes modelo pero no estás poniendo las piezas en su sitio correspondiente, es como si no tuvieras nada”.

Otra de las cuestiones que se han de tener en cuenta en este datacenter del futuro es evitar en lo posible el vendor locking. Precisamente, este modelo híbrido lo que implica es la libertad de movimiento, seleccionando siempre las tecnolo­gías o marcas que mejor se adapten a las necesi­dades específicas. “Aparte de nuestras soluciones, tenemos un ecosistema de partners a través de acuerdos con los principales players del mercado en cada una de las piezas de ese puzle: proveedo­res de cloud, de orquestación de contenedores, de gestión de configuración… Nuestro modelo no puede ser monocolor, tiene todas las tonalidades que el cliente necesite”.

Incluso, según nos cuenta José Antonio, su aproximación en este sentido es progresiva, respetan la base instalada y trabajan con todo tipo de soluciones, incluso de infraestructura de terceros.

Herramientas y facilitadores

HPE Flexible Capacity. Es posible contar —in-house— con la infraestructura que se necesita en la actualidad, y también con la que se va a necesitar mañana, y pagar solo por aquello que se utiliza, evitando desembolsos iniciales que pueden no ser necesarios en un primer momento.
Herramienta UTF. Similar a lo que pueda ser ITIL en la ejecución de los procesos, el unified transformation framework (UTF) es una metodología para asegurar el éxito en el camino hacia la TI híbrida.
Aura. Facilita la toma de decisiones a través de una serie de diagramas que permiten argumentar ese rightmix necesario en los modelos híbridos en función de la carga de trabajo y de los requerimientos funcionales, de negocio o económicos.
Cloud Cruiser. Esta herramienta permite medir el consumo de recursos en la nube para, por ejemplo, poder facturar a cada una de las áreas de negocio o departamentos de la empresa.
Análisis de cargas de trabajo. Cloud Technology Partners y RedPixie son dos consultoras adquiridas recientemente, especializadas en el análisis de cargas de trabajo para nubes públicas (Amazon y Azure respectivamente).
HPE Green Lake. Se trata de ofrecer la misma experiencia que se tiene en la nube pública, pero en un entorno on-premise, pagando solo por aquello que se consume.
De este modo no hay que preocuparse por ninguno de los componentes que forman la solución: hardware, software, servicios de instalación, mantenimiento, etc., permitiendo el acceso a un catálogo de servicios disponibles que se pueden contratar fácilmente.

Hacia la ti híbrida

Este modelo híbri­do idealmente es un facilitador para con­seguir que la tecno­logía subyacente dé respuesta a los procesos sobre los que se basa la transformación digital. Pero no se trata solo de poner infraestructura para ejecutar los nue­vos procesos, sino de identificar y acomodar las cargas de trabajo actuales, las existentes, así como los modelos de delivery que mejor se acomodan.

En los informes sobre esta nueva TI, las cifras nos hablan de beneficios en un buen número de ámbitos, como, por ejemplo, mejorar en un 93% el servicio de entrega al cliente, reducir un 60% los costes administrativos y un 70% el footprint del datacenter, o incrementar hasta cuatro ve­ces los ciclos de despliegue de las aplicaciones. “Pero esto no se consiguen con mejoras puntuales y desconectadas. Para lograr números importantes se deben hacer cambios importantes e ir hacia mode­los híbridos. Y hacerlo con una aproximación trans­formacional, capturando rápidamente los beneficios que propone este modelo”.

Pero ¿cuál es el camino? Según un estudio de Gartner, solo el 5% de los proyectos complejos de adopción de nubes híbridas terminan en éxi­to. En los que han fallado, la tecnología solo sig­nificaba el 6% de las razones argumentadas. “El problema viene porque solo se tiene en cuenta la parte tecnológica del asunto, obviando que detrás de todo eso hay personas: no se gestiona el cambio de forma adecuada y, una vez que está todo mon­tado, muchas veces no se cuenta con los recursos o la información necesarios para explotarlo correc­tamente”.

Para ello, es necesario tener en cuenta cuatro fases fundamentales:

  • Alinear la organización. TI y negocio deben estar de acuerdo, tener la misma información y facilitar que, entre todos, se construya un primer roadmap a alto nivel para saber qué pasos hay que dar. “Nosotros solo somos facilitadores. Si la organización no está alineada, el resto no vale. Ha­blo de los responsables de finanzas, de seguridad, de desarrollo, de explotación, de arquitectura, el CTO y el CIO… Llevarlos a todos a un plano tecnológico no es sencillo, pero contamos con herramientas y ex­periencias en este sentido”.
  • Identificar lo que tienes. Hay que definir ese rightmix para identificar las cargas de tra­bajo y mapearlas a su entorno de ejecución más idóneo basándonos en los requerimientos para cada una de ellas.
  • Ejecución. Una vez se tiene claro hacia dónde se va, el siguiente paso es definir un roadmap tecnológico para la ejecución y empe­zar con la implantación.
  • Gestión del cambio. En paralelo, desde el momento en el que los stakeholders han confir­mado y están todos de acuerdo, hay que hacer un programa de gestión del cambio para que llegue a toda la organización y esta adopte y haga suyo este proceso, facilite, consuma, etc.
FIGURA 2. Modelo de evolución hacia el datacenter del futuro.

Shadow it

Uno de los beneficios clave de este modelo híbrido es hacer que los departamentos de de­sarrollo, que se iban a la nube pública a buscar recursos, vuelvan otra vez a consumir servicios internos o, por lo menos, controlados por la TI, para evitar ese shadow IT. “En mi experiencia, esto ocurre en muchas empresas: la frontera entre el mundo del desarrollo y el de la explotación es cada vez más manifiesta. La productividad de los desarrolladores puede verse mermada por los re­cursos o servicios que no terminan de llegar”.

Hacer visibles y controlar de nuevo todos esos recursos no es una tarea que resulte sencilla. Por eso, “es muy importante que TI sea capaz de ofrecer a los desarrolladores las mismas facilida­des que pueden encontrar en otros entornos a la hora de obtener recursos para poner en marcha sus procesos de testing. De lo contrario no se van a subir a ese carro”.

Solo se tiene en cuenta la parte tecnológica, obviando que detrás hay personas

Cíclico

Pero esto no acaba ahí. Con el paso del tiem­po van a ir surgiendo nuevas necesidades en función de tecnologías o tendencias que va­yan apareciendo, y será necesario responder a un nuevo contexto de cambio. De hecho, una vez el proyecto esté terminado es importante poner en marcha un nuevo ciclo y acomodar la propuesta a las necesidades que vayan sur­giendo. “Esto lo vemos como un proceso, no como un procedimiento. Cada cierto tiempo se debería revisar si las cargas de trabajo o los requerimien­tos de los desarrolladores han cambiado, para adaptar la TI a ese nuevo estadio”.

En este contexto, la figura del technology offi­cer es fundamental porque es el que tiene una visión amplia de todas estas nuevas funciona­lidades y se las puede transmitir fácilmente, y con confianza, al CIO.

Por último, José An­tonio nos habló del auge de este tipo de proyectos en el mer­cado español, en el que están ya traba­jando con algunas empresas en proyec­tos de este tipo. Además, con respecto a otros países europeos, dejó claro que todavía esta­mos por detrás respecto a lo que está ocurrien­do en otras regiones, donde hace tiempo que iniciaron este tipo de aproximaciones. “Han hecho antes los deberes y han dado el paso hacia modelos híbridos antes que en España”.