Da big data ad advanced analytics, come far rendere i dati

Quali passi deve compiere una azienda per diventare davvero “data driven”. Ovvero, come applicare il giusto processo di analisi avanzata ai giusti dati [...]
  1. Home
  2. Big Data
  3. Da big data ad advanced analytics, come far rendere i dati

Advanced analytics e big data: non c’è dubbio che la quantità di dati potenzialmente a disposizione sia enorme, e che gli sviluppi informatici e tecnologici abbiano portato a un’integrazione delle metodologie e algoritmi di tipo statistico che fino a poco tempo fa richiedevano risorse e tempi non sostenibili.

Tuttavia, occorre andare cauti e preparare il terreno per accogliere e rendere utili alle nostre analisi questi due nuovi attori. Bisogna identificare un percorso, un piano che come primo punto identifichi in modo chiaro l’esigenza. Che sia di business (es. voglio aumentare la mia marginalità ipotizzando la mia domanda così da anticipare gli acquisti) o istituzionale (es. voglio indirizzare in modo adeguato l’offerta di servizi culturali al cittadino), l’importante è definire concretamente questa esigenza. Pare banale, ma la maggior parte dei progetti di analisi dati (advanced o meno) parte ancora dalla fine: si raccolgono tutti i dati possibili, ma poi non si sa bene che cosa farne. Il che è ben diverso dal concetto di “data driven company”.

Una volta identificata l’esigenza, si parte con la definizione di quel che serve per soddisfarla, ovvero le azioni e i dati. Tirando finalmente in ballo advanced analytics e big data.

Primo passo: raccogliere i dati

Mi spiego con un semplice esempio legato a un’azienda B2C – Gdo o fashion o altro, non importa. Immaginiamo che l’esigenza di business sia aumentare le vendite nell’anno di una certa percentuale, oppure ottenere un certo margine minimo dalle vendite.

In entrambi i casi, un ruolo importante può essere svolto da una corretta, ficcante, puntuale strategia di marketing. Per fare questo è utile capire chi sia il cliente tipo, il modello di persona che oggi acquista, e se questo corrisponda sia all’offerta attuale sia all’idea di cliente tipo che l’azienda ha in mente.

È fondamentale quanto si riesce a sapere del cliente nel momento in cui si manifesta, ovvero quando egli (o ella) acquista utilizzando la famosa e ormai onnipresente loyalty card.

Qui interviene un aspetto cruciale quanto pericoloso, perché quasi mai abbastanza amministrato, ovvero la qualità dei dati raccolti. Spesso il cliente, nel momento in cui si registra, compila il form (online o offline) in modo approssimativo soprattutto per ciò che riguarda quegli attributi ritenuti secondari e invece fondamentali per la nostra “esigenza”: residenza, età, composizione nucleo familiare, preferenze d’acquisto, interessi e così via. Tutti mattoni su cui poi viene costruita l’immagine del cliente tipo. In questo senso, coinvolgere il sales assistant (o il cassiere) nel caso di raccolta “offline” – magari con opportuni incentivi – oppure governare a monte la compilazione online, con liste bloccate di possibili risposte e sconti futuri al cliente (validi anche per l’offline), possono essere validi strumenti per migliorare la qualità dei dati raccolti.

Secondo passo: trattare i dati

Una volta risolti almeno in parte questi problemi, ci si può finalmente dedicare alla gestione dei dati raccolti e della loro integrazione con i dati interni: vendite, costi, ecc. Anche qui l’attività è “uno sporco lavoro che qualcuno deve pur fare” per garantire coerenza, preferibilmente all’interno di un data hub dedicato all’analisi.

A questo punto entra in azione in modo preponderante la figura del data scientist, finora partecipe ma non necessariamente attore principale della storia. Nel caso specifico, proverà probabilmente ad applicare in primis, trasformando il metodo statistico in algoritmo – scritto in R o Python, le opportune tecniche di clustering per suddividere i clienti in gruppi, omogenei per comportamenti d’acquisto e caratteristiche personali. E, successivamente, a cercare possibili regole di associazione tra prodotti per gli specifici gruppi di clienti. Così da fornire al business indicazioni pratiche su quali prodotti spingere e presso quali tipologie di clienti in modo da “trascinare” altri prodotti con maggiore margine.

Diventa cruciale in questa fase la capacità di storytelling, ovvero di saper spiegare in modo chiaro, magari attraverso un efficace ambiente di data visualization opportunamente pensato e realizzato, i risultati ottenuti dal processo di advanced analytics e gli impatti previsti delle azioni di business che si vanno a suggerire.

L’apporto di dati esterni

Tornando all’esempio, la conoscenza del cliente, ma anche del “prospect”, potrebbe essere ulteriormente raffinata integrando altri dati esterni, che possiamo suddividere in due semplici tipologie:

1. open, di uso pubblico presso siti istituzionali (es. Istat) o condivisi in modo libero sul web (es. Github);

2. a pagamento, come le informazioni sui competitor o altre informazioni non di dominio pubblico raccolte da aziende dedicate. Nel primo caso il vantaggio della disponibilità gratuita del dato va soppesata con l’attività necessaria per integrare questi nuovi dati nel data hub interno (formati, codici, misure, ecc.) e, ancor prima, per certificare il dato come affidabile. Al contrario, nel caso del dato a pagamento e riservato, l’effort economico è spesso maggiore rispetto a un’integrazione dati all’interno del data hub che si suppone relativamente semplice.

Così arricchendo i processi di advanced analytics con una maggiore varietà di dati, si possono ottenere risultati ben diversi rispetto a una situazione precedente, anche in termini di suggerimenti per un’azione finale del business.

Perciò, oltre alla famosa “esigenza”, è sempre importante fissare un break even tra precisione desiderata nel risultato (predittivo, quindi di natura non esatto) ed effort necessario per raggiungerlo, in termini non solo strettamente economici ma anche di tempo e risorse. In una parola, il budget.

Alla fine, il tema è applicare sempre il giusto processo di advanced analytics ai giusti dati, cioè a quelli che davvero che ci servono. Non importa quanti, importa quali.

Solo così l’azienda diventa veramente data driven, ovvero esegue azioni che vengono suggerite dai dati. I quali a loro volta non saranno più solo big, ma great data.

 

FacebookTwitterLinkedInWhatsApp

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*