El deep learning, o redes neuronales, es una de las áreas de la la inteligencia artificial (IA) de mayor relevancia y que más está creciendo en los últimos años. Desde 2012 a 2017, el número de papers y estudios publicados al respecto se ha multiplicado por diez y sus aplicaciones actuales están transformando todo tipo de sectores y ámbitos de la sociedad. Hemos hablado con José Antonio Manuel, data science evangelist en Hewlett Packard Enterprise, para que nos cuente algo más acerca de esta tecnología y su irrupción en el actual contexto de la economía digital.
Cuando hablamos de IA nos referimos a sistemas que, de alguna manera, podemos entrenar para que aprendan a realizar tareas que nosotros hacemos habitualmente y que requieren un cierto nivel de inteligencia: reconocer objetos, animales o personas, el habla… Dentro de este mundo, que es muy grande y diverso, hay un área que está adquiriendo una especial relevancia: el deep learning. Según explica José Antonio Manuel, “se trata de un subconjunto de la IA que utiliza lo que llamamos redes neuronales, que podríamos definir como una abstracción o una modelización basada en el modo en el que funcionan las neuronas del cerebro humano”.
El deep learning no es algo nuevo. La primera referencia a este tipo de simulaciones con ordenadores fue desarrollada a principios de los años 60. Desde entonces no ha tenido gran trascendencia hasta la actual explosión que estamos viviendo. Las razones que hay detrás están íntimamente relacionadas con tres grandes palancas que se han desarrollado durante los últimos años:
- El gran conjunto de datos disponible, el cual permite entrenar a los sistemas, que es donde reside la clave de este tipo de redes neuronales.
- El crecimiento experimentado en cuanto a la capacidad y el rendimiento de los sistemas de almacenamiento.
- La potencia de procesamiento actual, teniendo en cuenta el desarrollo de los nuevos cores y CPU y, sobre todo, el uso de las GPU (tarjetas gráficas) y chips específicos que se pueden programar para este tipo de procesamiento.
“Incluso, se está yendo más allá. Ya hay prototipos de lo que se llaman chips neuromórficos, que, en cuanto al hardware, están especialmente diseñados para modelar estas neuronas y que puedan interconectarse, consiguiendo arquitecturas semejantes a como creemos que se interconectan las neuronas en el cerebro humano”.
Aplicaciones
Desde luego, deep learning se utiliza mucho en todo lo relacionado con el procesamiento de imágenes. Entrenándolo de forma adecuada, es capaz de leer una matrícula o reconocer la cara de una persona. De hecho, estamos llegando a niveles de eficiencia que llegan al 99,4% de exactitud. En algunos casos llegan a rivalizar con los seres humanos a la hora de estudiar imágenes y descubrir determinadas características.
Esto ya es una realidad y las aplicaciones prácticas son múltiples. “Por ejemplo, el asistente de un smartphone (como es el caso de Siri) es una red neuronal que va aprendiendo a medida que le vas hablando. Tú lo vas entrenando, va reconociendo tu voz y lo que le estás pidiendo. Incluso empieza a ser capaz de proponerte acciones en función de tu patrón de comportamiento”.
Hay todo un ámbito de aplicaciones de estas redes neuronales: gestión de acceso a través de sistemas de vídeo que son capaces de identificar visualmente a las personas; detección de comportamientos anómalos en lugares públicos para hace saltar una alarma; en videovigilancia para el control de fronteras…
En el área de la atención sanitaria también hay mucha inversión. Por ejemplo, se están utilizando sistemas de deep learning para analizar resonancias magnéticas o radiografías, y han demostrado ser capaces de detectar patologías como el cáncer de pulmón. También está teniendo una aplicación muy importante en la secuenciación del genoma o en el estudio del alzhéimer. “Aunque no van a reemplazar nunca a un profesional, las redes neuronales son muy eficientes en este tipo de tareas, son una ayuda inestimable. Esto tiene un impacto positivo en la salud de los pacientes, pero también a nivel económico en lo que respecta a las aseguradoras y a las instituciones”.
Otra aplicación muy evidente es el coche autónomo. “Más allá de lo que tenemos en mente con lo que está haciendo Tesla, hay ya prototipos en Alemania de aparcamientos autónomos: parkings que, a través de sensores, indican al coche dónde puede aparcar, guiándolo hasta la plaza libre”. O, por ejemplo, lo que está haciendo Amazon con el envío de paquetería a través de drones, utilizando estas redes neuronales para identificar el terreno y resolver las contingencias que pueden ocurrir durante el trayecto a destino.
En este mismo contexto, HPE también está trabajando en el sector logística, especialmente en todo lo relativo a la optimización de las rutas en flotas de camiones. Estos sistemas inteligentes son capaces de optimizarlas en función de variables como el tráfico, eventos deportivos o acontecimientos de diversa índole, cambios en la climatología… Todo ello en tiempo real, con el objetivo de garantizar el reparto en función de los niveles de servicio preestablecidos.
El deep learning se utiliza mucho
en todo lo relacionado con
el procesamiento de imágenes
Soluciones tecnológicas
Si lugar a dudas, es un mercado con unas perspectivas de crecimiento realmente impresionantes. Según IDC, estos sistemas de IA a nivel global pasarán de 12 000 millones de dólares en 2017 a más de 57 000 millones en 2021. Según estima PwC, el impacto global para 2030 en la economía mundial llegará a los 15 000 trillones de dólares. “En estos momentos hay numerosos fondos invirtiendo mucho dinero en startups que están investigando en IA. Esto está demandando más recursos, que los grandes fabricantes pongamos encima de la mesa la base tecnológica para los desarrollos que ya están y para los que vienen”.
Para este tipo de contexto, HPE cuenta con tres soluciones especialmente relevantes. Por un lado, los sistemas HPE Apolo como respuesta a las demandas de potencia de proceso, interconexión y ancho de banda necesarios para mover estos grandes volúmenes de datos. Estos sistemas aúnan aceleradores de GPU de alto rendimiento, que se ejecutan en arquitecturas paralelas para manejar múltiples tareas de forma simultánea, con todo tipo de elementos diseñados para aprovechar al máximo el ancho de banda de la red. Por ejemplo, interconexiones de GPU NVLink 2.0 que proveen comunicaciones de GPU a GPU.
Otra de estas innovaciones es HPE EdgeLine, una línea de dispositivos de extremo, ordenadores de pequeño tamaño pero muy potentes, que recogen los datos cerca de la fuente y pueden hacer ese procesamiento local. Esto permite minimizar mucho el tránsito de información y, sobre todo, permite que se tomen decisiones in situ. “Pensemos por ejemplo en la conducción autónoma, en la que necesitas un ordenador en el coche capaz de reconocer y procesar la ingente cantidad de datos y de parámetros que requiere una conducción segura. Es necesario que eso se haga en tiempo real dentro del propio vehículo. No puedes enviar los datos y que un sistema externo decida si el coche debe frenar, reducir la velocidad o girar el volante”.
Por último, está el memory-driven computing. A medida que los sistemas de deep learning van siendo más complejos, es necesario dotarlos de ingentes cantidades de datos que la red neuronal va procesando para autoconfigurarse y aprender. Este proceso de entrenamiento consume mucho tiempo y capacidad de procesamiento. El memory-driven computing es un nuevo paradigma de computación, caracterizado por un pool de memoria con un acceso muy rápido donde se almacena esa ingente cantidad de datos. “Esto permite no solo unas velocidades de procesamiento tremendamente rápidas, sino que posibilita también tener redes neuronales mucho más grandes y complejas que permitirán evolucionar este mercado haciendo posible la llegada de servicios y soluciones que, hoy, seguramente no somos capaces de imaginar”.
Mantenimiento predictivo
HPE está trabajando de forma muy activa en todo lo relacionado con el mantenimiento predictivo, un ámbito donde la compañía cuenta ya con algunas referencias tales como los molinos aerogeneradores en parques eólicos. A través de la información recibida —acerca de parámetros como las revoluciones por minuto, la potencia producida o la velocidad del viento— se puede predecir cuándo van a tener algún problema. Incluso con semanas de antelación. Esto tiene un impacto muy importante en la reducción de costes, ya que es posible adelantarse a los acontecimientos y adecuar los planes de mantenimiento al estado en el que se encuentra el aerogenerador.
En este ámbito, HPE está introduciendo una serie de soluciones industriales de IA para casos de uso específicos, bajo la denominación HPE Digital Prescriptive Maintenance Services. Estas soluciones combinan servicios de HPE Pointnext (consultoría, prueba de concepto e implementación), con tecnologías y arquitecturas de referencia de HPE y su ecosistema de partners. La solución captura todas las fuentes de datos relevantes —incluidos los datos en tiempo real procedentes de los dispositivos de IoT, los centros de datos y la nube— para predecir fallos así como para anomalías, y automatizar las acciones de mantenimiento en los equipos industriales optimizando su productividad.
