La inteligencia artificial (IA) es una tecnología madura y, como tal, se enfrenta a sus propios problemas de crecimiento: la calidad de los datos, la diversidad de algoritmos de los que solo medimos sus efectos, o el etiquetado de datos. Utilizar la propia IA para industrializar el ciclo de vida de la IA es el nuevo modelo de actuación.

La IA no tiene el único fin de conseguir los propósitos de negocio, también —aunque de forma menos evidente— es el medio por el cual tratamos de optimizar el flujo de datos tanto en lo referido a la información como al proceso en sí mismo. Esta incipiente industrialización del uso de la IA es, con mucho, uno de los argumentos más poderosos para su popularización.

Como ejemplo, tomemos tres soluciones donde la propia IA opera de forma “industrial”.

Algoritmos genéticos y profiling psicológicos

En una página de e-commerce podemos tener un algoritmo genético que, a partir de la presión de la demanda, simula diferentes actualizaciones de los contenidos, los enfrenta con la realidad interactuando con los usuarios y decide en tiempo real las ofertas que deben aparecer de forma general.

En esta solución, el algoritmo tiene en cuenta los inputs tradicionales (comprador, datos de venta, offering de productos) y otros que toma “al vuelo” del entorno de redes sociales una vez que se han limpiado. El algoritmo es autocontenido: una vez construido el entorno de operación, adquiere la información, la despliega y se enfrenta a un entorno brutalmente cambiante. Esto, sorprendentemente, funciona bien, a pesar de que la participación en la decisión está siendo construida por un proceso de IA con poca o nula participación humana. Este tipo de productos ya se encuentran en el mercado y son extremadamente rentables, lo que aumenta significativamente la ratio de conversión (clientes que compran en la web frente a aquellos que acceden).

En el ejemplo anterior, los humanos participantes pueden ser anónimos. De hecho, uno de sus elementos diferenciales está en un profiling masivo (más de 200 000 perfiles activos) que requiere pocas interacciones para establecer el más adecuado. Este perfilado puede ser acompasado con técnicas en las que se incorporan al proyecto soluciones que integran nuevos perfiles psicológicos con los más tradicionales.

Las técnicas de IA permiten descubrir los patrones de datos que permiten integrar ambos tipos de perfiles. Este perfilado “psicológico” se extiende a lo largo de un proceso de recomendaciones en el que avatares empáticos (chatbots hipervitaminados) mejoran la percepción que tienen los clientes finales.

Estas técnicas son particularmente relevantes en procesos de fidelización, donde las ratios de mejora pueden ser sustanciales. Igualmente, la tecnología ya está disponible y demuestra una eficacia que nos hace reflexionar sobre el papel que puede desempeñar la IA en un futuro cercano.

La incipiente industrialización del uso de la IA es uno de los argumentos más poderosos para su popularización

Etiquetado y aprendizaje por refuerzo

En el marco de esta revolución de la IA, un proceso crítico es el de etiquetado de la información. Los llamados algoritmos supervisados requieren que se les suministre ya calificada: es decir un conjunto de datos (universo de variables) está relacionado con el éxito o fracaso, o más bien con la confianza, en un determinado resultado (p. ej., un rostro en una película corresponde con un determinado autor). Esta información aparece como una etiqueta y el algoritmo es capaz de aplicar ese conocimiento para predecir la probabilidad de un resultado.

Este proceso de etiquetado es absolutamente crítico, ya que los algoritmos supervisados permiten acceder a resultados más ricos y complejos. De esta forma, los procesos que lleven a obtener muestras características, o eludan este proceso, son claves para lograr resultados con el mayor grado de fiabilidad posible.

En el caso del tratamiento de imágenes o vídeos, el proceso industrializable puede resumirse en:

  • Identificación sobre la base de datos de imágenes ya existentes.
  • Para los no encontrados, crear una agrupación (cluster de imágenes) que el sistema reconozca como iguales o suficientemente parecidos.
  • Buscar un elemento coincidente, por lo general en la nube, y enriquecerlo para crear una muestra característica de imágenes ya etiquetadas.
  • Retroalimentar al sistema, entrenarlo y generar un nuevo motor más sofisticado y eficiente.

En este proceso existe solo un actor humano: el validador que acepta (o rechaza) la sugerencia del sistema. Para mejorar el proceso de decisión, el sistema puede proporcionar información contextualizada, como saber la ciudad en la que se encuentra la escena utilizando técnicas de speech-to-text, extracción de entidades, reconocimiento de texto en imágenes o perfilado de edificios. Estas herramientas se constituyen en una “toolbox de IA” que puede ser invocada por este validador. Este proceso se mueve en el state-of-the-art y utiliza las técnicas y algoritmos más depurados y potentes de la IA. El resultado final es un vídeo o imagen enriquecidos con un amplio conjunto de metadatos que pueden ser utilizados por diversos usuarios finales.

Las técnicas de autoetiquetado son solo una parte de los esfuerzos que se realizan para obtener motores de IA eficientes y robustos. Las nuevas técnicas de algoritmos supervisados con refuerzo están alcanzando unos logros literalmente increíbles, aunque acotados a dominios restringidos. Los ejemplos más notorios son AlphaZero, StarCraft II. No solo ganan de forma recurrente a sus adversarios humanos. Actualmente son una fuente de inspiración para los grandes maestros de ajedrez, como Magnus Carlsen, que ha incorporado a su repertorio el tipo de juego valiente y arriesgado que caracteriza a AlphaZero.

Una generalización más asequible para procesos industriales la constituyen las redes generativas adversas (GAN), donde dos algoritmos se enfrentan por tener la mejor solución.

Algoritmos compitiendo

Esta técnica de enfrentamiento de algoritmos es una de las más “venerables” en los procesos de machine learning e IA, y ha sido usada en la generación de soluciones.

Entre los diferentes retos con los que se encuentra un data scientist, uno de los más importantes que ha de resolver pasa por definir qué algoritmo, con los datos de partida, supone la mejor aproximación al problema real. Normalmente, y tras la construcción de uno o varios datasets que se consideran adecuados, se generan varios experimentos para determinar cuál es la mejor combinación posible entre datos, algoritmos y aquellos parámetros que utilizan para su ejecución (hiperparámetros).

En herramientas ya maduradas, como Synergica (solución para optimización de consumo energético), este proceso de optimización es realizado de forma industrial. Existe un core analítico que procesa una amplia variedad de algoritmos, fuerza la operación con diferentes hiperparámetros e indica cuál es la combinación que mejores resultados aporta, publicando el algoritmo para su utilización en el modelo de operación del cliente.

La incorporación de las redes LSTM (redes neuronales donde la información se mantiene en el tiempo para reducir y mejorar el período de aprendizaje) a este core analytic permite abordar proyectos, por ejemplo, de mantenimiento predictivo en el ámbito industrial para un amplio conjunto de organizaciones.

De esta forma se ha trascendido desde un modelo de apoyo a la decisión clásico (reactivo) a uno prospectivo en continua evolución.