Big data analytics: per Qlik un 2018 all’insegna di multi-cloud e alfabetizzazione dei dati - Big Data 4Innovation
FacebookTwitterLinkedInWhatsApp

Big data analytics: per Qlik un 2018 all’insegna di multi-cloud e alfabetizzazione dei dati

Antonello Salerno

A tenere banco per l’anno appena iniziato nel campo dell’analisi dei dati saranno il multi-cloud e l’alfabetizzazione dei dati. Nella cornice del 2018 rispetto al sistema economico che ruota attorno ai big data, che stanno conoscendo un momento di impetuoso sviluppo, gli addetti ai lavori di Qlik, società specializzata nella data analytics, individuano gli undici trend principali protagonisti della competizione tra le aziende che vogliono ottenere vantaggi competitivi grazie alle nuove tecnologie.

“Le realtà aziendali più solide – si legge in una nota di Qlik – danno la priorità a un moderno approccio alla Business intelligence e stanno indirizzando i propri dipendenti a diventare la generazione più esperta della storia in tema di analytics”.

Ecco in sintesi gui undici punti principali individuati dalla ricerca:

L’alfabetizzazione dei dati acquisirà priorità a livello aziendale e sociale. Saper leggere, utilizzare, analizzare e discutere i dati sta diventando sempre più importante nell’economia analitica. Le organizzazioni che sapranno fare buon uso di queste competenze ne otterranno vantaggi importanti, se è vero, come risulta da un sondaggio Qlik, che quasi il 50% dei dipendenti riscontra problemi nel distinguere tra dati veri e dati manipolati e meno del 20% si considera preparato in materia. Quanto al futuro, il 65% è disposto a investire più tempo ed energie per migliorare le proprie competenze sui dati.

– Il multi-cloud ibrido emergerà per creare connessioni. Il rapido aumento dei servizi cloud supererà le aspettative anche dei leader in ambito IT. Nel 2018, tuttavia – sottolinea Qlik – alcuni dati dovranno essere rimossi dal cloud per motivi di regolamentazione, sicurezza, costi e prestazioni, determinando così la frammentazione dei dati e dei domini applicativi. Questo significa che le architetture analitiche in grado di gestire ambienti multi-cloud, multi-piattaforma e ibridi diventeranno sempre più indispensabili.

– I dati aumentaod a dismisura. Il nuovo anno vedrà un importante aumento di carichi di lavoro eseguiti direttamente su un’ampia gamma di dispositivi: entro il 2019, almeno il 40% dei dati creati con l’IoT saranno archiviati, processati, analizzati e usati in prossimità o al limite del network, mentre entro il 2022, il 75% dei dati generati dalle imprese saranno creati ed elaborati al di fuori del tradizionale centro dati o del cloud.

Big Data, data discovery e scienza dei dati convergeranno.  Grazie ai progressi nel campo dell’intelligenza artificiale, dell’indicizzazione dei Big Data e dell’integrazione engine-to-engine, stanno creando nuove opportunità di integrazione, consentendo agli utenti di esplorare a fondo dati di grandi dimensioni, complessi e variegati.

I cataloghi di dati saranno la nuova frontiera del self-service. Negli ultimi anni la tendenza è stata quella prepararsi i dati in modalità self-service, in un modo visivamente più efficace. Nel 2018, le nuove modalità di catalogazione dei dati saranno maggiormente integrate con l’esperienza acquisita di preparazione e analisi. Ciò consentirà di rivolgersi a un pubblico più ampio, in grado di combinare facilmente dati aziendali controllati, data lake e dati as-a-service esterni.

– La necessità di interoperabilità e nuovi modelli di business pone l’accento sulle API. L’incremento della distribuzione di dati, elaborazione e utilizzo degli stessi va di pari passo con l’ampliamento degli ambienti tecnologici delle imprese. Le aziende non sono più alla ricerca di soluzioni end-to-end e stack singoli ma di soluzioni componibili. Ciò significa che le piattaforme analitiche in questo nuovo ambiente devono essere aperte e interoperabili, con estensibilità, integrabilità e API moderne.

Il lancio del blockchain guiderà le applicazioni sperimentali oltre le criptovalute. Emergono nuove tecniche di elaborazione, gestione e integrazione di dati distribuiti che renderanno la posizione dei dati un fattore sempre più marginale nelle strategie di informazione. Nel 2018 l’innovazione si sposterà oltre le criptovalute fino alle applicazioni sperimentali per l’analisi e la gestione dei dati.

L’analisi diventa colloquiale. L’uso dell’analisi è stato tradizionalmente incentrato su list box e/o visualizzazioni di dashboard in stile drag-and-drop. Anche se questi utilizzi continuano a essere di valore, esistono ora più approcci disponibili per “l’analisi colloquiale” che semplificano l’analisi, i risultati di ricerca e lo storytelling dei dati, in modo da permettere agli utenti di raggiungere più facilmente un punto dati fondamentale.

– Reportistica ridefinita e altamente contestualizzata. Nel 2018 si inizierà a ridefinire la reportistica fornendo sia a analisti che agli altri utenti informazioni altamente contestualizzate, invertendo le analitiche che conosciamo oggi. Sarà l’analisi a raggiungere gli utenti, direttamente integrata nel loro spazio di lavoro, fornendo le informazioni giuste alle persone giuste, al momento giusto, nel posto giusto e nel contesto giusto. Ù

L’analisi diventa immersiva. Dal momento che i dispositivi di realtà virtuale sono un po’ troppo costosi per un’adozione mainstream, siamo ancora lontani dalla realtà aumentata. Probabilmente la svolta avverrà all’interno di casi di utilizzo aziendali, in cui l’analisi ricoprirà un ruolo importante.

I sistemi di intelligenza aumentata trasformano gli utenti in partecipanti e facilitatori. A partire dal 2018, la combinazione di tecnologie di Augmented Intelligence (agenti intelligenti, bot e attività automatizzate) e di tradizionali strumenti di analisi (set di dati, visualizzazioni, dashboard e report) renderà i dati più utili. Ma questo da solo non sarà sufficiente. Un sistema in cui intelligenza artificiale e essere umani convivono nello stesso ecosistema, con reciproco scambio e apprendimento tra le due parti, è detto intelligenza aumentata.

Giornalista dal 2000, dopo la laurea in Filologia italiana e il biennio 1998-2000 all’Ifg di Urbino. Ho iniziato a Italia Radio (gruppo Espresso-La Repubblica). Poi a ilNuovo.it, tra i primi quotidiani online nati in Italia, e a seguire da caposervizio in un’agenzia di stampa romana. Dopo 10 anni da ufficio stampa istituzionale sono tornato a scrivere, prima su CorCom, nel 2013, e poi anche per le altre testate del gruppo Digital360. Mi muovo su tutti i campi dell’economia digitale, con un occhio di riguardo per cybersecurity, copyright-pirateria online e industria 4.0.

FacebookTwitterLinkedInWhatsApp

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


FacebookTwitterLinkedInWhatsApp

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi