Loading...

V Foro de Big Data y RGPD – II parte

Continuamos por donde lo dejamos en el último post…

Haciendo un breve resumen sobre analítica, sabemos que tradicionalmente la ciencia analítica se centraba en datos numéricos, almacenados en bases de datos relacionales, que eran sobre los que aplicábamos la ciencia analítica. En la actualidad los datos son dispersos, estructurados, no estructurados… Con las nuevas herramientas podemos analizar datos numéricos, textos, imágenes, voz, logs de navegación… La analítica prescriptiva se adentra un paso más en el futuro. Examina datos o contenidos para establecer los pasos y decisiones que deben tomarse para alcanzar un objetivo determinado. El análisis prescriptivo trata de ver cuál será el efecto de futuras decisiones, para poder ajustar dichas decisiones antes de haberlas tomado.

Estas nuevas herramientas de analítica avanzada, combinadas con la inteligencia artificial, mejoran exponencialmente la toma de decisiones, ya que los resultados futuros se están teniendo en cuenta en la predicción. La analítica prescriptiva puede ayudar a optimizar la planificación, la producción, el inventario, la modelización del consumidor.

Otra reflexión interesante, producto de la jornada del Foro de Big Data fue que ya existen muchos algoritmos hoy en día que trabajan, aprenden y se mejoran de manera automática. No se puede decir que un algoritmo sea malo o inútil, sino que en muchas ocasiones no cuenta con la información necesaria para evolucionar adecuadamente, o al menos no todo lo rápido que se espera que esto ocurra. Se explicaba durante la jornada que en general, todos los algoritmos son extremadamente eficientes, pero al principio todos empiezan sin datos. Hasta que no se dispone de un histórico de datos, no se puede evaluar contrastar el rendimiento de diferentes algoritmos. Y también hay que considerar el pull de datos que ha utilizado cada uno de ellos para juzgarlos. Pero a pesar de ello, lo que está claro es que curiosamente los algoritmos, al igual que ocurre con las personas, el aprendizaje reforzado está marcando la diferencia.

Por último, se ha hablado del fenómeno de Data Storytelling. El storytelling es un elemento crítico del proceso analítico. A medida que las organizaciones crean culturas de análisis, los informes de los analistas se basan más en fomentar una conversación en torno a los datos y menos en argumentar a favor de una única conclusión. Cada vez se valora más la capacidad de poder contar una historia y visualizarla. Los datos son inútiles si no podemos entenderlos, de hecho, pueden llegar a convertirse en una carga. La visualización de datos trata sobre cómo presentar datos a las personas adecuadas, en el momento adecuado, para permitirles obtener información optimizada más eficazmente.

En resumen, hemos hablado de la importancia y los requisitos para la democratización del dato, que hacen accesible al público en general el trabajo e interpretación de grandes cantidades de datos. Continuábamos hablando del impacto de la IA y las implicaciones que acarrea en este ecosistema, que se adentra en el futuro con un crecimiento exponencial y constante en cuanto a los datos se refiere. Ese crecimiento está intrínsecamente relacionado con la analítica y con su evolución en lo que ahora se conoce como analítica avanzada, donde la variedad y el tamaño del total de datos existentes habilitan a los profesionales de la industria y cada vez a más personas no especialistas (gracias al proceso de democratización que estamos viviendo) a poder sacar valor e insights que ayuden durante procesos de toma de decisiones. Es cierto que hoy más que nunca, la información es poder.