Loading...

V Foro de Big Data y RGPD

El pasado 25 de abril, en el V Foro de Big Data & RGPD, Giovanna Benito representó a Experian con una interesantísima ponencia hablando sobre las tendencias 2019 en Data Analytics.

Durante la misma, comenzaba explicando qué es la democratización del dato. Es la capacidad para que la información en formato digital sea accesible para el usuario promedio final. Su objetivo es permitir que los no especialistas puedan recopilar y analizar datos sin necesidad de ayuda externa.

Continuaba la ponencia presentando a uno de los grandes protagonistas del ecosistema del Big Data: la Inteligencia Artificial. El impacto y la presencia de la IA irá en aumento de manera progresiva en los próximos años. Por eso, aprovechar la IA seguirá siendo un desafío con un recorrido enorme. Además, el aprendizaje automático se volverá común y transformará la ciencia de los datos, ofreciendo una mejor gestión de los mismos. Si a esto sumamos el desarrollo de hardware específico para la capacitación y la ejecución del aprendizaje profundo, como resultado veremos como la incorporación de IA mejorará la toma de decisiones y la experiencia comercial general, además de la experiencia final del consumidor.

Todas las nuevas aplicaciones incorporarán alguna forma de IA en su programa para mejorar su funcionamiento. Por lo tanto, el número de aplicaciones inteligentes aumentará. Las cosas inteligentes o versiones más inteligentes continuarán inundando el mercado.

A continuación podemos encontrar algunos casos de uso.

  • Asistentes de voz como Siri, Alexa o Google
  • Optimización de la eficiencia de costes, gestión de la cadena de suministro, el tráfico automovilístico o aéreo.
  • El perfilado de consumidores. Como usuarios generamos tantísima información que la inteligencia artificial, puede ayudar a las empresas a modelizarla, previo consentimiento, para ofrecer al usuario una experiencia personalizada en base a un perfilado previo. Imaginaos que a la hora de dibujar el perfil de un usuario, no sólo tuviésemos en cuenta variables habituales como la edad o el género, sino que también incluyéramos fuentes de datos que todavía no estamos explotando, como los hábitos de consumo con su tarjeta de crédito, las llamadas realizadas, el perfil crediticio… Toda esta información sería imposible de analizar y modelizar sin la ayuda de la tecnología.
  • Detección del fraude online. Para nuestra desgracia el fraude evoluciona a un ritmo realmente rápido. Los ciberdelincuentes siempre van un paso por delante de las aplicaciones y soluciones de lucha contra el fraude. Por ese motivo motores de Machine Learning permiten igualar esta batalla. El aprendizaje automático de los sistemas que utilizamos en Experian, facilitan la adaptación de las reglas que se implementan para la detección del fraude. Actualmente hay compañías que analizan las voces de sus clientes para identificarlos y verificar que son ellos.
  • Los coches autónomos usan dispositivos y sensores, que les aportan memoria. Los servicios de transporte como Uber o Cabify usan ML para conectar los conductores a los clientes

Utilizando como ejemplo los anteriores casos de uso y pensando la cantidad de datos que se derivará a raíz de los mismos, es lógico pensar que el volumen de datos generados en los próximos años aumentará de manera exponencial.

Siendo conscientes de la evolución del volumen de datos, no podemos obviar que la ciencia analítica sufrirá también una evolución a la par de este crecimiento. De hecho, esa evolución ya está empezando y a día de hoy, empresas como Experian ya ofrecen soluciones de analítica avanzada.

Hablaremos más sobre analítica avanzada en la segunda parte del post del 17 de julio. Keep tuned!