fondo

Antonio Pérez Carmona

09/11/2016 Fergal Mc Donnell, Vicepresidente regional para el Sur de EMEA y MEA de Talend

Big Data y Logística en siete proyectos tangibles

Talend software en la nube y Big Data, las buenas decisiones.

Numerosas empresas de logística han iniciado proyectos prototipo en la tecnología del Big Data y analítica. Cuando UPS anunció inversiones de 1.000 millones de dólares saltaron las alarmas. Nadie quiere quedarse fuera de la carrera. Fergal Mc Donnell, Vicepresidente regional para el Sur de EMEA y MEA de Talend, empresa de integración de Big Data y la nube para ayudar a tomar buenas decisiones, define la utilidad del Big Data en siete proyectos para logística.

 

“Big Data para mi es sólo una palabra difusa y grande ” afirmaba a principios de 2015 el director de un centro de innovación de una gran empresa de logística. Un año más tarde, no sólo admite que ‘Big Data’ es la próxima gran revolución, sino que ha aplicado esta tecnología al negocio consiguiendo un crecimiento significativo y reducción de costes. ¡De hecho, el éxito ha sido tal que se le ha dado la financiación para un departamento Machine Learning (aprendizaje de máquinas)!

La inversión de 1BN $ US realizada por UPS en Big Data ha sido una llamada de atención para que las empresas de logística de todo el mundo se tomen en serio el tema de Big Data ante el temor de ser aniquilados. De hecho, el delta creado por los que han adoptado Big Data está creciendo rápidamente.

Numerosas empresas de logística han iniciado proyectos prototipo con el fin de explotar el análisis de Big Data y muy pronto algunos de estos proyectos formarán parte de nuestra vida cotidiana. Esto incluye el análisis en tiempo real que ha cambiado por completo la dinámica de los negocios. El uso de una herramienta como Spark en Hadoop permite evaluar grandes volúmenes de datos almacenados en los registros de Excel, bases de datos o HDFS.

Siete proyectos de Big Data en el sector de la logística

1.-Análisis del volumen de paquetes

La predicción del volumen de paquetes en un día concreto de la semana, mes o año ha sido siempre una preocupación importante para las empresas de logística que buscan optimizar asignación de recursos y presupuesto. Muchas empresas de logística están invirtiendo en esta área para determinar los patrones que les ayuden a predecir los picos de volumen. Se trata de un caso de uso ideal donde los científicos especialistas en datos ejecutan el análisis de lotes para generar recomendaciones.

 

2.-Datos sobre paquetes en entornos controlados

En el caso de algunos productos básicos y de medicamentos en particular es crucial que el transporte se realice en un entorno controlado. Por ejemplo, algunos medicamentos requieren ser almacenados a una temperatura entre 2º y 8º C. La cuestión es que algunos de los equipos son frágiles y requieren un cuidado extra en su manipulación, por lo que resulta caro para las empresas de logística y el cliente final gestionar todo el proceso. Las empresas están invirtiendo en Big Data para encontrar rutas alternativas que permitan garantizar una entrega segura dentro de los parámetros requeridos.

Investigadores y científicos expertos en datos están desplegando sensores IoT con el fin de controlar la temperatura, el nivel de vibraciones y otros factores relativos a los paquetes. El análisis de estos datos en el terreno (fuera de internet) se utiliza para definir el camino más seguro y económico para los productos “frágiles”.

 

3.-Economía en la elección de rutas

¿Debería nuestra empresa fletar su propio avión para transportar paquetes, o aprovechar la infraestructura existente? ¿Qué proveedor tiene mejores instalaciones, enrutamientos, costes y es más transparente? Para responder a este tipo de preguntas, los científicos de datos están trabajando en algunos prototipos. Se encuentran utilizando el análisis Big Data para estudiar grandes cantidades de datos de paquetes con el fin de predecir cuáles son las rutas más fiables, rentables y viables para el crecimiento futuro. El resultado para la dirección de las operaciones son datos precisos que permiten tomar las mejores decisiones acerca de qué aerolínea elegir o qué almacén de servicios es la mejor opción para sus necesidades.

 

4.-El reto de tratar con enormes volúmenes de datos no estructurados

La situación actual del análisis de riesgos y posibles soluciones es una de las grandes preocupaciones para los dueños de productos. Ante hechos como, por ejemplo, disturbios, huelgas en una región o incluso averías de vehículos, etc., los directores necesitan tener una visión clara del problema y conocer las posibles soluciones.

En este sentido, uno de los proyectos estratégicos que está actualmente en fase de prototipo en algunas empresas de logística consiste en permitir a los directores buscar proactivamente problemas y sugerencias generados por el sistema de opciones de ruta o estrategias alternativas. El reto es tratar con los enormes volúmenes y variedad de datos no estructurados procedentes de todo tipo de fuentes, desde los medios de comunicación sociales hasta los sensores del IoT en los vehículos de transporte, tanto para evaluar el riesgo como para definir las soluciones.

La herramienta Apache Spark en Hadoop es una buena elección para este tipo de procesamiento de datos en tiempo real que permite a los gestores anticipar y manejar las crisis antes de que lleguen a producirse. Spark facilita el análisis de datos de diferentes fuentes ofreciendo la forma más óptima para predecir eventos y alternativas.

 

5.-Transparencia para los clientes finales

A los clientes les preocupa mucho el tiempo de entrega de paquetes. Predecir cuándo llegarán exactamente los paquetes es una pesadilla para las empresas de logística. Sin embargo el tiempo de entrega depende de diversas variables: número de paquetes, estado del tráfico, estabilidad del vehículo e incluso la salud del conductor. A diario, se entregan millones de paquetes y únicamente mediante el análisis Big Data, de la información de variables como el estado del vehículo, la eficacia del conductor o las condiciones de tráfico actuales, se puede proporcionar una ventana de tiempo aproximado de cuándo se entregará un paquete.

Este proyecto piloto actualmente en fase de prototipo requiere el análisis de datos en tiempo real. Con herramientas de análisis de datos en tiempo real las empresas serán capaces de proporcionar información muy precisa sobre la situación del paquete con total transparencia a sus clientes.

 

6.-Campañas y analítica Web

Actualmente, en muchas empresas de logística se está utilizando Big Data para analizar el tráfico web. Por ejemplo, una compañía logística líder en Alemania está utilizando el análisis Big Data para proporcionar servicios más personalizados a los visitantes de la web. Con esta información sobre los intereses individuales de cada visitante, les pueden ofrecer diferentes campañas y servicios de forma automática.

 

7.-Línea de servicio al cliente

Otro proyecto interesante es simplificar y personalizar la experiencia del cliente cuando llama al servicio de atención al cliente. Normalmente, cada envío cuenta con un número de teléfono del receptor y otro del emisor. Esta información puede estar vinculada al servicio al cliente y, en el caso de llamadas procedentes de estos números, las personas que llaman pueden recibir notificaciones automáticas sobre el estado de sus envíos y la hora prevista de llegada. Los tiempos previstos se calculan en base al análisis de datos en tiempo real a partir de diferentes fuentes sobre esa ubicación (tráfico, volumen, etc.). Este proyecto está diseñado para ayudar a reducir la carga de trabajo en general en el centro de atención al cliente.

La cantidad de datos que tenemos hoy en día supera la capacidad de procesamiento de los sistemas convencionales. Big Data nos permite hacer cosas que antes no eran posibles. El cambio cuantitativo está ahora convirtiéndose en un cambio cualitativo. Con Spark y las bases de datos transaccionales en tiempo real (Cassandra, MongoDB, NOSQL) todo está cambiando rápidamente. Las empresas que trabajan con Big Data van muy rápido cerrando brechas que ni siquiera parecían posibles antes, como, por ejemplo, tomar medidas proactivas, para actuar antes de que ocurra incluso un “evento”. A corto plazo “análisis predictivo con Big Data” será la nueva norma del futuro.

 

Acerca de Talend

Talend pertenece a la nueva generación de software de integración en la Nube y Big Data que ayuda a las empresas a manejar los datos haciendo que la información sea más accesible, mejorando su calidad y la rapidez de movimiento de datos cuando es necesario para la toma de decisiones en tiempo real. Las innovadoras soluciones de código abierto de Talend reúnen, prepararan y combinan datos de una amplia variedad de fuentes de una forma rápida y eficiente que permiten a las empresas optimizar prácticamente cualquier aspecto de su negocio. Talend tiene su sede en Redwood City, CA.

Deja un comentario

Back to Top