L’onda anomala: come evitare di essere sommersi dai dati

Gestire i big data industriali non è un’impresa semplice. Occorrono strategia e visione, supportate da tecnologie in grado di generare informazioni utili da sistemi complessi. Vediamo come

Pubblicato il 26 Gen 2023

Gianmaria Vernetti

Giornalista

Le 10 previsioni 2023 di SAS in ambito analytics e dati

Viviamo in un mondo basato sui big data. Lo confermano le statistiche. È un mercato che quest’anno raggiungerà – solo in Italia – i 2,4 miliardi di euro, con una crescita del 20% rispetto al 2021 (Fonte: Osservatorio Big Data Politecnico di Milano).

Il settore manifatturiero è quello più interessato da questa crescita. Nel 2020 ha rappresentato il secondo settore – dopo quello bancario – per investimenti in big data, con una quota di mercato pari al 24% del totale (Fonte: Statista).

I big data sono parte integrante dell’Industry 4.0, che oggi nel nostro Paese vale 3,5 miliardi di euro, destinati a diventare 4,3 miliardi entro il 2024 (Fonte: Statista).

Per gestire i big data industriali è necessario che le aziende adottino una nuova cultura basata sul dato, per non soccombere di fronte a grandi quantità di input che non generano informazioni utili. Si tratta della c.d. sindrome DRIP: Data Rich, Information Poor. Ma evitare di essere sommersi dai dati è possibile.

Un altro suggerimento che ci sentiamo di dare è quello di selezionare in modo accurato le misure da raccogliere, aggregare e storicizzare, al fine di evitare il fenomeno denominato G.I.G.O.: Garbage In, Garbage Out. La bontà dei dati in uscita a disposizione del Management è direttamente influenzata dalla bontà dei dati raccolti dai sensori e dai criteri di aggregazione che si è deciso di adottare.

Il valore dell’industrial analytics

L’industrial analytics è prima di tutto una metodologia, un approccio al dato che copre l’intero processo produttivo. Ciò è reso possibile dalla digitalizzazione e dalla convergenza tra Information Technology (IT) e Operational Technology (OT). La capacità di raccogliere i dati di produzione per effettuare analisi sempre più performanti è abilitata dall’integrazione di sensori e device a bordo macchina, in grado di raccogliere informazioni preziose sullo stato di salute degli impianti e sulla produzione in corso.

Monitoraggio e controllo diagnostico permettono di navigare l’onda anomala dei big data e generare output positivi in termini di efficienza e produttività. Esempi in questa direzione sono i sistemi SCADA, che rappresentano il cuore pulsante della fabbrica smart. Grazie (anche) agli SCADA è possibile effettuare l’analisi predittiva, che si rivela strategica sia in ottica di produzione sia per quanto riguarda l’ingegneria di manutenzione.

Estrarre informazioni utili dai big data è oggi possibile grazie anche all’integrazione di soluzioni di intelligenza artificiale e machine learning. Si realizzano così soluzioni predittive per programmare i flussi di domanda, ottimizzare la produzione e prevedere potenziali fermi macchina.

Storicizzare i dati

La storicizzazione dei dati è una risorsa preziosa per navigare il mare dei big data, soprattutto per quelle aziende che sono all’inizio del loro percorso di trasformazione digitale.

Raccogliere e storicizzare i dati può generare una crescita virtuosa della produttività e una riduzione dei costi.

Come sappiamo, la raccolta dei dati da sola non basta per creare valore aggiunto. La fabbrica connessa presuppone l’elaborazione, aggregazione, interpretazione e archiviazione dei dati per generare informazioni utili. E, in quest’ottica, una corretta storicizzazione dei dati si rivela strategica.

Le aziende devono quindi dotarsi di software efficienti ed efficaci, in grado di offrire una visione a 360 gradi dei processi produttivi, l’accesso immediato ai dati storici e la loro contestualizzazione, oltre naturalmente a caratteristiche tecniche di analisi e campionamento e acquisizione di dati da fonti diverse.

Integrità dei dati

È importante evitare di essere sommersi dai dati. Ma è altrettanto importante garantire la loro integrità. I big data generati dalle tecnologie 4.0 presuppongono strategie di Data Integrity, soprattutto in quelle industrie fortemente regolamentate come il Life Science, il farmaceutico e l’industria alimentare e delle bevande.

Quando si parla di integrità dei dati si parla di concetti di accuratezza, completezza, coerenza e protezione. Quando questi requisiti vengono rispettati, le informazioni generate dai dati sono affidabili sempre, ovunque e comunque, a prescindere dalla loro storia, dalla frequenza degli accessi o da potenziali intrusioni da attacchi esterni.

In tema di sicurezza, la Data Integrity si basa su tre principi: confidenzialità/riservatezza, integrità e disponibilità. È bene ricordare che sono diversi i fattori che possono compromettere l’integrità: errori umani, errori di trasmissione, attacchi informatici, guasti hardware.

L’implementazione di un’efficace strategia di Data Integrity è possibile grazie all’adozione di protocolli operativi, da una parte, e dall’integrazione adeguata di piattaforme software.

Parlando di storicizzazione e integrità dei dati, un esempio è rappresentato da Proficy Historian (di GE Digital, distribuito in Italia da ServiTecno. La piattaforma contestualizza i dati grezzi e aggrega isole di informazione, restituendo output in grado di supportare i processi decisionali.

Proficy Historian si caratterizza per architettura a 64 bit e compatibilità completa a 32 bit, open access per applicazioni ERP e MES e compatibilità con soluzioni di terze parti.

Contestualizzare i dati

La fabbrica big-data based deve dotarsi di soluzioni in grado di leggere i dati in modo dinamico e contestuale. È questo il presupposto alla base dell’analytical reporting, che abilita la consultazione veloce e snella di informazioni in tempo reale basate su dati contingenti, e integri.

Un esempio in questa direzione è Dream Report, distribuito in Italia da ServiTecno.

È uno strumento di analytical reporting e dashboard che consente agli utilizzatori finali di prendere decisioni basate sui dati di produzione. La piattaforma prevede diverse funzionalità come gestione della qualità dei valori, analisi avanzata degli allarmi, funzionalità SPC estesa in tabelle statistiche automatiche e integrazione con Data Reviewer.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4