Cuando se habla de big data se piensa en ingentes cantidades de datos que son procesados para encontrar un patrón repetitivo (Wikipedia). Pero lo interesante, y trascendente, de este fenómeno es lo que está ocurriendo para que esté casi omnipresente en nuestras vidas personales y en las estrategias empresariales.
Desde el punto de vista funcional, los ERP, CRM y demás aplicativos “tradicionales” permiten controlar los flujos conocidos de trabajo y dan, con una certeza muy alta, cuánto se ha vendido y dónde, quiénes han comprado y las características de los bienes adquiridos. Pero no pueden predecir o encontrar nuevas áreas de mercado, grupos de compradores o productos de interés global, regional, comunicatorio, grupal, tribal o individual. Los actuales sistemas permiten almacenar una parte de los datos, pero no la información relativa a relaciones grupales, los deseos, las verdaderas e íntimas necesidades, los gustos, los hábitos, etc.
Y es aquí donde entra en juego otra gran fuente de datos, los que provienen de la participación personal en las redes sociales, un fenómeno que se globaliza gracias a los nuevos, y geniales, dispositivos personales. Este fenómeno permite que, de manera voluntaria y casi inconsciente, cedamos nuestros perfiles de comportamiento (íntimos y personales), nuestras relaciones de amistad, nuestros gustos y anhelos personales, para que sean anonimizados dentro de todo el entramado de portales, apps, etc., junto con los datos que provienen de los sensores. Aquí podemos hacer un paralelismo con 1984, novela de George Orwell publicada en 1949, en la que los ciudadanos son controlados a partir de sus hábitos cotidianos, que son trasmitidos al Big Brother.
La clave: encontrar la forma inteligente de integrar y reutilizar los aplicativos existentes
Pero dejemos esa comparación para una tertulia. Si solo nos centramos en estas enormes fuentes de datos, tenemos el cóctel servido: el negocio de big data consiste en gestionar —de forma rentable— todo este collage de datos (estructurados y no estructurados) con el objetivo de obtener beneficio en ámbitos como la reducción del fraude o el riesgo empresarial, encontrar un nuevo mercado o target de clientes a los que hay que fidelizar, determinar el líder de opinión y utilizar su influencia, etc.
Para lograrlo se habla de las famosas “uves” del big data: volumen, variedad, velocidad (de generación y de respuesta a negocio), veracidad y, una de las más importantes, el valor que esos datos aportan a la empresa o al interesado. Estas “uves” a su vez, arrastran nuevos y sofisticados sistemas que permiten gestionar de una forma eficiente estos grandes volúmenes de datos heterogéneos; se habla de Hadoop, NoSQl, datamining, algoritmos predictivos, machine learning y la reciente analítica cognitiva (WATSON).
Pero lo más importante es abordar proyectos de big data con un impacto mínimo, buscando el modo inteligente de integrar y reutilizar los aplicativos existentes —los desarrollados en SQL— junto con el aprovechamiento de la experiencia técnica existente —también en SQL— y que está presente en casi todas las empresas. El objetivo es que sea posible abordar proyectos de big data en un menor tiempo, reduciendo los costes asociados y llevando a cabo un mínimo rediseño y reprogramación de los mismos.
Esto no es solo un deseo. Se puede hacer y ya hay experiencias reales en España, donde empresas de conocida solvencia ya lo están utilizando. Solo hay que saber buscar, probar y elegir la distribución de Apache Hadoop adecuada, aquella que permita el uso de SQL de forma directa, sin pérdida de rendimiento: BigInsights con BigSQL.