¿Ud. registra el horario de entrada y salida del personal? Esos registros combinados con los domicilios de sus empleados pueden hacer la diferencia entre forzar horarios de entrada y salida que no se cumplen y generan retrasos en producción o servicios, a contar con una plantilla de personal con horarios de entrada y salida que se adapten a las necesidades de su empresa.
El BIG DATA (grandes volúmenes de información digital) no solo es aplicable a grandes empresas, ya que actualmente cada uno de nosotros o nuestras empresas generamos grandes volúmenes de información, muchas veces no documentada digitalmente. Desde Inergram promovemos el uso eficiente y oportuno de la información a través de Consultoría y Capacitaciones.
BIG DATA
Se necesita mucho ingenio para gestionar y extraer patrones útiles de los grandes volúmenes de datos disponibles en la actualidad y generados por el mundo digital. Este es el terreno de Big Data, donde aún manda el desorden: la tecnología no está lista para analizar la información, y el talento tampoco está entrenado. ¿Qué dicen los que saben?
¿Está preparado para enfrentar el próximo meta-problema del mundo de los negocios? Le quitará el sueño.
Se trata de la administración de los grandes volúmenes de datos que se generan por minuto en redes sociales, en la Web, en los servidores de las empresas, en las millones de computadoras y dispositivos móviles conectados a Internet, más conocidos como “Big Data”.
Como es sabido, las empresas dependen de la toma de decisiones para hacer funcionar sus negocios, y las mejores decisiones, a su vez, dependen de contar con información confiable y oportuna. Tener los datos que necesitamos en tiempo y forma para las decisiones que debemos tomar es un problema gigantesco en una era en la que la capacidad de captura, almacenamiento y procesamiento de información se duplica cada 18 a 24 meses.
Pero el manejo de grandes cantidades de datos no es solo una dificultad técnica: no se trata de una cuestión de almacenamiento o de comunicación o de diseño del microprocesador. De hecho, los avances realizados en busca de una solución en realidad complican el problema: brindan acceso a más información, que cambia con rapidez, a medida que un nuevo dispositivo o nuevas innovaciones desde el punto de vista de la arquitectura permiten disponer de “datos instantáneos”.
El interrogante es el siguiente: ¿cómo transformar de manera efectiva, eficiente y confiable los datos relevantes en información útil? La generación de grandes cantidades de datos en todas las industrias está demandando a gritos una herramienta eficiente para gestionarlos. Los instrumentos convencionales para el management de base de datos, como los sistemas relacionales (RDBMS), no tienen la capacidad de administrar estos volúmenes crecientes de información no estructurada. Lo cual está impulsando el desarrollo de varias herramientas y tecnologías para administrarla por parte de los proveedores de tecnología.
El cosmos
El mercado global de Big Data moverá US$ 48.300 millones para 2018, según la firma de investigación Transparency Market Research. En 2012 movió US$ 6.300 millones. Norteamérica dominará, con una participación del 54,5% de esos ingresos, seguida por Europa. Luego, la región de Asia-Pacífico será la de mayor crecimiento acumulado entre 2012 a 2018, con un 42,6%.
Este crecimiento, y el del resto de las empresas de otros países, puede ser atribuido al interés de las firmas de mejorar sus capacidades analíticas para perfeccionar la toma de decisiones a través de la obtención de conocimiento más adecuado y de mejor calidad.
Los componentes básicos del mercado de proveedores de servicios de análisis de Big Data incluyen software y soluciones, hardware y capacidad de almacenamiento. El segmento de software y servicios se come la porción más grande de la torta de producción de soluciones: más del 50% del total. Pero el segmento de mayor y más rápido crecimiento se estima será el del almacenamiento, que crecerá hasta un 45,3% hacia 2018. El sector financiero será el que más contribuirá a este crecimiento, por la cantidad de información que genera. De hecho, en 2012, ya dominaba el 20% del mercado de generación de datos.
Hoy, por ejemplo, los países emergentes representan una enorme oportunidad para la venta de productos y servicios de las empresas occidentales. Pero para ganar en este escenario, como advierte McKinsey, las empresas deben predecir las preferencias, gustos y patrones de conducta específicos de un grupo flamante, grande y diverso de usuarios específicos.
¿Cómo hacerlo? Internet convirtió a cada usuario conectado en su propio “hub interconectado” de enlaces con otros usuarios, productos, tecnologías, filosofías y formas de ser y proceder; una auténtica colmena lista para ser explotada, siempre que podamos darle sentido a esta base de datos masivamente interactiva.
En realidad, podríamos tomar a cada uno de los 7.000 millones de habitantes del planeta como un proceso constante de generación de datos. Sus opciones de compra y estilo de vida, sus estados de ánimo, generan información que puede ayudarnos a entender y predecir su conducta, colaborar con ellos en las emergencias y responder a sus preocupaciones. ¿Cómo abrirse paso en medio de esta enorme cantidad de información que producen?
Convertir los datos relevantes en información útil es un inconveniente enorme; en realidad, es un conjunto de grandes complicaciones. Si tuviera una base de datos que rastrea sus tentaciones, estados de ánimo, deseos y gustos que daría forma a un retrato completo y resuelto de su persona, esa información sería sin duda valiosa para muchas de sus decisiones. Podría hasta evitar el engaño y el autoengaño; convencerse de abandonar los hábitos contraproducentes, o seguir de cerca el clima de su ambiente laboral.
Los datos están allí. Pero son demasiados. A menos que encuentre la manera de convertirlos en información jugosa en predicciones de sus respuestas a los estímulos, en modelos optimizados de cómo debería comportarse su empresa o usted como líder, su “disco rígido” es un mero almacén de hechos que deben procesarse para descartar la información innecesaria. El problema es grande porque contiene muchas variables, cantidad de relaciones entre ellas y, por lo tanto, requiere cuantiosas operaciones para alcanzar una solución.
De hecho, podemos medir el tamaño del problema que generan los grandes volúmenes de datos según el número de operaciones necesarias para convertirlos en información que sirva para algo. En esencia, las empresas deben resolver dos tipos de dilemas diferentes:
Dilemas de predicción: ¿qué sucede si hago esto?
Dilemas de optimización: ¿cuál es la mejor manera para conseguir que esto suceda?
Estos dilemas toman los grandes volúmenes de datos como un registro y, como resultado, generan información útil: planes, estrategias, modelos. Y a medida que se acrecienta el tamaño de lo que ingresa y se registra, el problema se “mega-acrecienta” también. La relación entre el número de variables de registro y el número de operaciones requeridas para procesar la información no es lineal. La mayoría de las dificultades que enfrentan las compañías son irresolubles desde una óptica técnica, debido a que el tamaño del problema aumenta exponencialmente en relación con el del ingreso y registro de datos.
Piense en analizar el patrón de relaciones generadas por sus contactos en LinkedIn para predecir quién presentará quién a quién, o el patrón de decisiones de compra en Amazon de la gente que pertenece a la misma red de amigos en Facebook, con el objetivo de predecir quiénes influyen de manera clave.
Para resolver las ecuaciones que derivan de los modelos que buscan identificar estos patrones hay una explosión de operaciones que usted debe explicar, y no solamente una explosión de memoria requerida para observar los datos. ¿Ayuda la creciente potencia computacional? Apenas en parte.
Un problema sexy
Si todo lo que hiciera falta fuera más y mejor poder computacional, quizá el problema de Big Data se reduciría al diseño de un chip y a un inconveniente de la ciencia: darle más “operaciones de punto flotante por segundo” (FLOPS, por su sigla en inglés). Esto es precisamente lo que la Ley de Moore, que sostiene que el número máximo de transistores que podemos colocar en un chip se duplica cada 24 meses, dice que ya estamos haciendo.
Pero, a pesar del hecho de que la inteligencia computacional colectiva crece con rapidez, el manejo de los grandes volúmenes de datos no se simplifica. Todo lo contrario, es cada vez más difícil de resolver, razón por la cual algunos expertos en el análisis de información, como Tom Davenport, dicen que la tarea de los “científicos de datos” es “la más sexy del siglo XXI”, mientras que Dominic Barton y David Court, de McKinsey, sostienen que la capacidad de las herramientas analíticas para procesar Big Data será un diferenciador importante de las empresas a escala mundial.
¿Por qué Big Data es un meta-problema? La respuesta simple es: cuando se trata de dificultades gigantescas, no alcanza con la inteligencia. El tamaño de nuestras dificultades no solo crece de forma lineal respecto de la cantidad de variables que tomamos en cuenta, sino que crece exponencialmente o super-exponencialmente y, por lo tanto, con mayor rapidez que lo que la Ley de Moore puede explicar.
Aquí no se necesita inteligencia, la capacidad para hacer muchas operaciones en un período breve, sino ingenio; es decir, la habilidad para encontrar e implementar el mejor método de búsqueda de una solución.
La salsa secreta
Ingenio no es lo mismo que inteligencia. No es realizar operaciones con rapidez, sino poder diseñar la manera en la que secuenciamos las operaciones; es decir, el diseño de los algoritmos y la heurística que usamos para resolver los grandes problemas que plantean los enormes volúmenes de datos. Es el ingenio el que permite optimizar las plantas de fabricación, calcular las interacciones críticas entre los genes en los genomas de los individuos en riesgo y diseñar algoritmos para explotar las variaciones minuto a minuto del precio de las acciones de Apple. A continuación, algunas de las habilidades que hay que cultivar para enfrentar la gestión de Big Data.