I BIG DATA E LA LOGISTICA 4.0

Era il 1991 quando nelle stanze del CERN di Ginevra Tim Berners Lee pubblicò la prima pagina web, dando così vita al World Wide Web. Da allora sono passati solo 29 anni eppure tecnologicamente sembra essere trascorsa un’eternità.

20200323 corpo 1Nonostante ai tempi ci vollero ben 17 giorni prima che il sito web creato da Tim Barners Lee venisse visitato da un utente esterno, ciò che l’informatico inglese aveva concepito fin dall’inizio era una rete di informazioni annodate semanticamente alla quale poteva accedere un computer leggendo in modo automatico e non ambiguo. L’evoluzione tecnologica dei dispositivi, con il progressivo netto miglioramento delle capacità di produzione e archiviazione delle informazioni, ha poi trasformato il web, arrivando a parlare di web 2.0 prima e Internet of Things (IoT) dopo.

 

20200323 corpo 2Tutto ciò ha determinato la generazione di una mole di dati spaventosa; si stima che ogni giorno vengano creati 2,5 quintilioni di byte di dati e che solo Facebook raccolga quotidianamente dagli utenti 1Pb (10^15 byte) di dati ogni giorno. Come sopravvivere quindi a questa situazione senza esserne sommersi? Come riuscirne a trarne vantaggio?
La capacità di selezione delle informazioni, di analisi e di rappresentazione risulta essere cruciale per le aziende in generale, comprese quelle del mondo della logistica. Non a caso, oggi si parla sempre più frequentemente di Logistica 4.0, grazie all’automazione e all’intelligenza artificiale, ed è importante per le aziende non restare fuori da questa “rivoluzione” perché perdere il treno dell'innovazione potrebbe portare a un isolamento dalle logiche di mercato e, quindi, a una forte perdita di competitività. Per le aziende che fanno logistica non basta più saper gestire il flusso fisico delle merci ma risulta fondamentale anche garantire la qualità delle informazioni che accompagnano i prodotti all’interno dei processi aziendali e lungo tutta la Supply Chain. 

Ecco allora la necessità di sapersi approcciare correttamente ai “Big Data”, non limitandosi solo alla quantità delle informazioni ma puntando soprattutto sulla loro qualità, sfruttando quindi tutte le cosiddette “tre V” definite dall’analista Douglas Laney (Volume, Varietà, Velocità), introducendo in azienda competenze di Big Data Analyst, Digital Manager, Informatico logistico o Informatico dell’automazione.

  • Volume: la quantità di dati in circolazione è enorme; serve capacità di sintesi e interpretazione, anche grazie alla digitalizzazione dei processi che permette di mettere a disposizione dei manager e di chi deve prendere decisioni, dati strutturati e non disorganizzati, nonostante possano provenire da fonti differenti
  • Varietà: le fonti che producono e ci mettono a disposizione dati sono molteplici, dal sistema gestionale aziendale ai portali web, dal WMS di magazzino ai middleware che gestiscono RFID o altri sistemi di tracciabilità, dai TMS ai software di ottimizzazione dei giri di consegna, etc. I dati utilizzati possono quindi essere variegati anche per tipologia: strutturati, non strutturati, semi-strutturati.
  • Velocità: per non essere sommersi dai dati a disposizione bisogna saperli leggere e comprendere tempestivamente perché altrimenti il rischio è di giungere ad elaborazioni che ormai risultano già superate e non utilizzabili dai manager per prendere decisioni, tenendo sempre a mente che i costi che si sostengono per raccogliere, elaborare, presentare le informazioni devono essere compensati dai benefici da esse conseguenti.

 

20200323 corpo 3

L’approccio all’elaborazione dei dati può essere diverso a seconda dello scopo, che condiziona pesantemente lo studio e la definizione di un modello di analisi:

  • Modelli descrittivi: riproducono la realtà attraverso semplificazioni, senza presupporre l'uso che del modello verrà fatto
  • Modelli predittivi: forniscono gli elementi necessari per prevedere l'evoluzione di una certa realtà, lasciando spazio ad eventuali scelte
  • Modelli prescrittivi: impongono un comportamento particolare, in previsione dell'obiettivo da raggiungere.

Un buon manager logistico quindi non deve limitarsi a conoscere i processi aziendali ma deve anche padroneggiare le caratteristiche logistiche dei propri prodotti, sapere come si muove la merce e con quali volumi, sapere come si classificano i prodotti da un punto di vista ABC, saper individuare le caratteristiche di trend e stagionalità dei flussi, sapere come impostare una buona mappa di magazzino e quali logiche di prelievo applicare. Tutto ciò non solo da un punto di visto teorico, ma supportato dai numeri e dai dati che la storia ci mette a disposizione.

La Logistica 4.0 rappresenta quindi un cambiamento culturale che non può prescindere dalla capacità di gestione delle informazioni e dei dati; non a caso nell’ultima ricerca 2019 dell’Osservatorio Contract Logistics “Gino Marchet” della School of Management del Polimi è emerso che le aziende di logistica stanno ampliando i propri budget in IT e stanno ricercando nuove competenze di analisi dei dati e monitoraggio delle prestazioni, le quali non possono più mancare in un buon Site Manager o Planner dei Trasporti tanto quanto la capacità di innovare e la visione strategica.

Per informazioni: Simco Consulting - mail: simco@simcoconsulting.it - Tel. 02 39325605

  • Visite: 197

ITALIA

Simco Srl - Via Giovanni Durando 38 - Pal.3
20158 Milano MI

  • +39 02 39 32 56 05

  • simco@simcoconsulting.com

  • P.IVA 08570130156

FRANCE

Simco Consulting Sarl - 12 rue Alfred Kastler
71530 Fragnes-La-Loyère

  • +33 (0)3 65 69 00 52

  • simco@simcoconsulting.com

  • TVA FR66823213798

© SIMCO SRL . All rights reserved. Certificazione UNI EN ISO 9001:2015 (N. certificato 9175 SMCO)