¿Qué puede aportar el análisis masivo de datos a mi organización?

ALEX RAYÓN
Profesor e investigador en la Facultad de Ingeniería

Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.
Sala de control de la NASA, donde se generan grandes cantidades de información a analizar. Fuente: Wikipedia.

Según Gartner, en 2015 van a ser necesarios 4,4 millones de personas formadas en el campo del análisis de datos y su explotación. En este sentido, McKinsey sitúa en torno al 50% la brecha entre la demanda y la oferta de puestos de trabajo relacionados con el análisis de datos en 2018. Por lo tanto, y ante la
gran divulgación que está teniendo el término, seguramente no os tenga que introducir mucho el concepto Big Data.
Son sistemas informáticos que manejan y procesan grandes volúmenes de datos, y que en palabras del profesor Viktor Mayer de la Oxford Internet Institute, nace y se define como el eterno sueño de la estadística: que no haya que muestrear, sino que podamos analizar todos los datos generados en un entorno dado. Que no haya que analizar un todo considerando sus partes (representativas, claro). Según vimos los avances en la capacidad de procesamiento de datos, en el abaratamiento del hardware y en la cantidad de datos que se estaban generando (redes sociales, movilidad, la Nube, ciudades y redes inteligentes, etc.), pensamos que los ordenadores iban a ser capaces de procesar grandes volúmenes de datos. Todos los datos; y que entonces íbamos a poder aplicar técnicas estadísticas para sacar muchas conclusiones de todo ello. Y esto, claro está, representa una oportunidad para las organizaciones, empresas y personas que quieran tratar y analizar los datos para obtener valor para la toma de decisiones o para sus clientes: ayudar
a las empresas a vender más (detectando patrones de compra), a optimizar costes (detectando cuellos de botella o desperdicios), a encontrar más clientes (por patrones de comportamiento), a detectar puntos de mejora en procesos (por regularidades
empíricas de mal funcionamiento) y un largo etcétera.
Pero, en este mundo del Big Data, hay demasiados falsos positivos (como señala Kaiser Fung, autor de Number Sense). Para evitarlos, se debe:

  1. Hacer Big Data con un marco teórico que entienda, represente y modelice el dominio de conocimiento que se está estudiando (no sea que vayamos a correlacionar la desaparición de los piratas con el cambio climático);
  2. Una muestra significativa (y aquí, el tamaño no lo es todo);
  3. Significatividad estadística (que la relación no brote de la aleatoriedad).

Con estos tres elementos en la mano, y desplegando los análisis de datos en los procesos de negocio de las organizaciones, sí que podremos hablar del valor en torno al dato. Sí que podremos decir que estamos ayudando a las organizaciones a gestionar el día a día en torno a las evidencias. Cabe hacer, para concluir, una observación. Esto del Big Data va más de preguntas que de respuestas. Por lo que,
mira a tu alrededor, y empieza a plantearte preguntas que podamos, analíticamente, responder. Esto es el Big Data.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *