Data Value Stream.

Il nostro processo di Data Value Stream è suddiviso in quattro passaggi fondamentali: l’acquisizione e recupero dei dati, la pulizia e il trattamento di essi, la loro modelizzazione e analisi, seguita dalla fase finale di azioni e decisioni.

      L’obbiettivo della prima fase, detta  data retrieval , è quello di recuperare i dati da macchine di produzione o da scanner 3D e strumenti di misurazione durante la fase di sviluppo del prodotto. Il recupero del dato, dalla fonte interessata, è soggetto a diverse sfide, tra le quali il superamento della barriera legale che i produttori dei macchinari spesso tengono ad erigere. I fornitori dei macchinari possono evitare l’accesso diretto ai dati dei propri strumenti attraverso l’utilizzo di sistemi proprietari, licenze specifiche per i propri software o addirittura una piombatura della macchina stessa. Non è poi da escludere la possibile barriera fisica che si pone tra noi e il dato. Il macchinario, infatti, potrebbe non essere connesso ad una rete e, nel caso lo fosse, bisogna adoperarsi per instaurare una connessione con esso, studiando la scheda di rete e il sistema che la gestisce. I dati, gestiti e controllati solitamente da PLC  (Controllore logico  programmabile) , devono essere estratti passando per infrastrutture intermedie definite SCADA ( Supervisory Control and Data Acquisition) . Tramite l’OPC  (Open Platform Communications) , una piattaforma laogica superiore, è permesso, invece, l’accesso ai dati di ogni singola macchina. Ma anche gli OPC possono essere collegati tra di loro tramite il MES  (Manufacturing Execution System) che permette di monitorare in maniera completa le risorse  produttive e lo stato di avanzamento degli ordini di produzione. . Tuttavia poter sfruttare questa varietà di sistemi logici di organizzazione e archiviazione dei dati costringe solitamente le aziende ad implementare un progetto su larga scala seguendo un approccio  roll-out  di tipo “Big Ben”, senza alcuna sicurezza sui risultati. In quest’ottica abbiamo realizzato una serie di servizi dedicati a favorire l’accesso ai dati abbattendo le barriere fisiche, logiche, legali per permettere il recupero dei dati in tempo reale anche da una singola macchina, su cui avviare un progetto pilota. 

Da considerare è, poi, la problematica dello  storage del dato, che può variare da diversi gigabyte a numerosi terabyte. Una soluzione consiste nella caratterizzazione dei dati attraverso oggetti matematici che ne facilitano la gestione. Sfruttando le derivate e gli integrali delle curve, il numero di oscillazioni, per esempio, si ottengono delle caratterizzazioni che ben riassumono il funzionamento di macchina. È necessario sin da questa fase, però, ragionare sulle dimensioni del campionamento del dato, la frequenza, le variabili d’ingresso e di uscita, arrivando a definire una mappatura che ci permetta di capire quali dati sono disponibili e quali controllabili.

     La seconda fase del processo ha lo scopo di pulire e trattare i dati data cleaning” . Il dato che riusciamo ad ottenere dai macchinari, infatti, può arrivare sporco, ovvero con la presenza di valori anomali detti “outliers”, dovuti a cause di vario tipo. Non è da escludere la presenza di errori umani nella fase di recupero del dato, ma anche il mal funzionamento di sensori che porta alla mancanza di pacchetti di dati o, più semplicemente, rumori di fondo dovuti ad interferenze. Fondamentale è quindi valutare l’integrità e bontà del dato nel tempo, garantendone la corretta estrazione e il minor errore di misura possibile in base al segnale da noi campionato. Un dato sporco può comunque essere trattato a posteriori e si possono ricostruire via software intervalli mancanti.

La terza fase consiste nella modellazione e analisi dei dati raccolti . I dati immagazzinati e puliti, infatti, devono portare ad un’analisi di causazione o, in ogni caso, implementare dei modelli di previsione sull’andamento dello sviluppo del prodotto. Lo studio delle variabili in ingresso deve, in altre parole, portare ad una previsione delle variabili in uscita, in modo da essere elaborate con un modello a supporto delle decisioni, che possono essere prese in tempo reale dalla macchina, autonomamente o sotto la supervisione di un operatore, allo scopo di risolvere problemi ed ottimizzare i tempi di lavorazione. Si può, però, permettere un’autonomia gestionale anche a sistemi che lavorano su livelli logici superiori, portandoli a prendere scelte a livello di filiera. L’incertezza dovuta ai parametri di studio e gli errori di misurazione, devono essere sempre presi in considerazione, poiché influenzerebbero i dati statistici su cui lavorano i modelli decisionali. Bisogna attivare una serie di statistical process control volti a cogliere la stabilità del processo nel tempo e la previsione della normalità. L’analisi punta a scoprire le cause su cui poter lavorare per influenzare gli effetti. Ancora una volta dobbiamo quindi ragionare in termini di variabili, dove delle variabili di dominio possono essere influenzate a nostro vantaggio e portare alla variazione delle variabili di codominio.

Nella quarta ed ultima fase , dopo aver compreso su quali variabili andare ad agire e quali controllare, si può definire un sistema di decisioni e azioni coerenti che permettono un supporto continuo contro le sfide che si ritrovano in termini di produttività, di qualità, efficienza, processo e manutenzione. Si devono, quindi, definire una serie di  keep performance indicators   che siano coerenti ai parametri definiti in precedenza e degli obbiettivi in base al portafoglio prodotti. Studiate le variabili possiamo, dunque, andare a definire un modello di miglioramento o un relativo piano d’azione, prendendo sempre in considerazione parametri d’incertezza. Si è allora pronti a muoversi in una logica non più reattiva, bensì con una mentalità proattiva che deve tenere conto del sistema dinamico di supporto alle decisioni. Dalla fase di analisi viene, infatti, realizzato un modello in base al volere dell’azienda, che potrà seguire un sistema lineare o non lineare. Fornire supporto alle decisioni consiste, per noi, nella implementazione di un sistema decisionale che ottimizza modelli. Il nostro obbiettivo è, per esempio, quello di portare a target nominale variabili dimensionali, oppure minimizzare variabili come le non conformità o massimizzare livelli di saturazione degli impianti, per raggiungere la migliore efficienza. La  r obust production  garantisce un sistema produttivo robusto che sia in grado di superare ogni causa di variabilità dell’uomo, della materia prima e della macchina. Il discorso si rispecchia facilmente dal lato prodotto, dove si possono prevedere variabili durante lo sviluppo, permettendo il raggiungimento del mercato senza alcun imprevisto con il cosiddetto  robust design .

Testare le ipotesi