IBM Think: La società algoritmica ha bisogno dei Big Data e dei Data Scientist - Big Data 4Innovation
FacebookTwitterLinkedInWhatsApp

IBM Think: La società algoritmica ha bisogno dei Big Data e dei Data Scientist

Miti Della Mura

Trasformare in valore il dato proveniente da fonti tradizionali o da nuove fonti come l’IoT, i wearable, i droni, i sensori, connected product e machine. Questa è la missione della Data Science. Dall’analisi predittiva all’ottimizzazione delle decisioni, la scienza dei dati permette di ottenere le informazioni utili per collaborare efficacemente e migliorare le performance aziendali.
E di Data Science si è parlato in occasione di Think Milano, l’evento che IBM ha organizzato nei giorni scorsi per portare i temi dell’innovazione e della trasformazione digitale al centro dell’attenzione delle imprese, delle istituzioni e dei cittadini, nel corso di una tavola rotonda dal titolo “La Data Science trasforma i dati in valore prezioso per l’azienda . Dal Machine Learning alla predictive Intelligence”, moderata da Mauro Bellini, direttore di BigData4Innovation.

È stato Luca Flecchia, Data Driven Innovation Practice Head di Partners4Innovation P4I ad aprire i lavori con una considerazione di scenario: “Se è vero che tutti noi produciamo una grande quantità di dati, è vero che ne usiamo una parte infinitesimale”, ha esordito. È tuttavia un problema sistemico, perché “Per raccogliere le sfide della Data Science servono competenze nuove che non sempre si hanno in casa”.

Ma è qualcosa per cui è bene prepararsi, visto la pervasività dei settori che di un utilizzo consapevole della Data Science potranno beneficiare: banche, retail, agrifood, Industry.40, smart city…

La Data Science, ha proseguito Flecchia, accende l’attenzione sul dato, ma “Il dato è l’elemento atomico, l’abilitatore: il vero obiettivo sono le informazioni, specie se rilevanti per il business”.

Dai Big Data all’informazione, dall’Informazione all’azione

Ma quale è il percorso che trasforma il dato in informazione e che porta dall’informazione all’azione?

Flecchia lo illustra con una infografica, che qui riportiamo. Di fatto si tratta di cinque passaggi, dal dato puramente descrittivo a quello “diagnostico”, per poi passare alle fasi predittive, prescrittive e preventive.

Tutta questa premessa serve a Luca Flecchia per tracciare l’identikit del Data Scientist, ovvero delle nuove figure professionali che hanno il compito di traghettare i dati verso la loro forma di insight. “Conoscenze di dominio, conoscenze statistico/matematiche, hacking skills”, snocciola Flecchia, aggiungendo poi “competenze di processo e comprensione del business, una mentalità quantitativa, capacità di gestione del dato e, naturalmente, competenze tecnologiche”.

Detto questo, che cosa si aspettano le aziende dai Data Scientist?
Tre cose sostanzialmente: conoscere le fonti dei dati e trasformare i dati in esse contenuti, saper utilizzare strumenti diversi e saper gestire tipologie di dati diversi, comprendere il business e saper lavorare in team con persone che possiedono competenze diverse.

Serve un cervello per governare i Big Data?

Sulle note di scenario di Luca Flecchia si innesta subito la provocazione di Marco de Ieso, Senior Data Scientist in IBM e professore aggiunto all’Università Cattolica del Sacro Cuore: “Visto che siamo nell’era dell’automazione e dei big data e considerato il potere nascosto dei dati, siamo sicuri che serva ancora avere un cervello?”.
Provocazione, ovvio. Perché la risposta c’è: certo che serve.

“Il valore del Data Scientist sta nella capacità di scegliere un buon campione, di visualizzarlo, distinguendo tra segnale e rumore, di pulire i dati migliorandone la qualità, di governare gli algoritmi riconoscendone affidabilità”, spiega.
E conclude con una frase lapidaria: una società governata dagli algoritmi non deve essere una società di scatole nere: c’è sempre la necessità di interrogarsi su quanto accade.

La visione di IBM

Tocca infine a Walter Aglietti,  Direttore di IBM Software Lab, portare il punto di vista di IBM sulla gestione costruttiva dei dati.
“Le aziende generano dati – premette – che devono essere governati. Ma perché questo accada, i dati stessi devono essere puliti e ordinati. Noi disegniamo i modelli e da lì parte la selezione del modello ottimale, che viene poi testato su infrastrutture apposite”.

C’è tuttavia in Aglietti la consapevolezza delle difficoltà esistenti: dati compartimentati, di difficile gestione, mancanza di governance sui dati, che rende qualunque ipotesi di approccio self service semplicemente utopistico, mancanza di skill e necessità di disporre di strumenti che consentano di prototipare velocemente per poi altrettanto velocemente ripartire, necessità di superare l’eterogeneità delle piattaforme e dei tool di sviluppo.
E su questi due ultimi aspetti, IBM ha parecchio da dire.

L’immagine che apre questo servizio è stata postata da Maurizio Decollanz, Head of Communications in IBM Italia, sul proprio profilo Twitter

 

Giornalista, da trent’anni segue le tematiche dell’innovazione tecnologica applicata ai modelli e ai processi di business.Negli ultimi anni si è avvicinata al mondo dell’Internet of Things e delle sue declinazioni in un mondo sempre più coniugato in logica smart: smart manufacturing, smart city, smart home, smart health.

FacebookTwitterLinkedInWhatsApp

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


FacebookTwitterLinkedInWhatsApp

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi