No es que sea yo un gurú del tema precisamente, pero considero que llevo más de 12 años haciendo Big Data, por ello a lo peor alguno toma en serio mis reflexiones. Entonces, ¿cuándo tenemos, hacemos, trabajamos Big Data? La respuesta parece sencilla, “cuando tenemos muchos datos”. Pues no, este es un nombre con mucha pegada (como me han dicho hoy en la comida) es un nombre acertado desde un punto de vista “marketiniano”. Pero muchos datos tiene el operacional de un banco y no creo que un entorno Mainframe haga Big Data. Big Data tenemos cuando accedemos a datos desestructurados. Ya la dimensionalidad pasa a un segundo plano y las tecnologías tradicionales/actuales y sus hechos, metadatas, cubos y demás dejan de tener sentido. Hay Big Data cuando no se prepara la información. Anteriormente el acceso a los datos necesitaba un periodo previo para adaptarlo a una estructura, ahora no, ahora accedemos (por ejemplo) a un sistema operacional sin necesidad de pasar por una capa previa. En realidad hacemos lo mismo, tabulamos, graficamos, modelamos pero sobre datos que no están preparados. Eso es Big Data.
Como vemos el tipo de análisis que utilizamos con el Big Data no dista mucho de lo que hacemos ahora mismo. Por ello las personas que se dedican actualmente a analizar la información serán las mismas que lo harán en el futuro. Pero estas personas tienen que familiarizarse con el empleo de otras tecnologías. Algún compañero de la blogosfera ya está comenzando a definir el nuevo paradigma del gestor de la información. En este blog ya se habló sobre el tema en 2010. La personas que nos dedicamos a la estadística (aunque algunos estemos muy orientados al negocio) tenemos que tener presente este cambio de conceptos y adaptarnos si no queremos quedarnos fuera. El Big Data es lo mismo de siempre pero de otra forma más barata y no necesariamente menos complicada.
¡No seamos dinosaurios! [Aunque luego terminemos pintando todo con Excel]