Come analytics intelligence e machine learning possono aiutare le aziende sanitarie nell’emergenza

I sistemi di analytics intelligence, sfruttando tecnologie come la data visualization, possono essere considerati come strumenti a grande valore per analizzare e comprendere i numeri legati a epidemia e contagio [...]
data democratization
  1. Home
  2. Data Analytics
  3. Come analytics intelligence e machine learning possono aiutare le aziende sanitarie nell’emergenza

La situazione attuale richiede sempre più la capacità di prendere decisioni veloci e consapevoli. L’utilizzo di software e algoritmi complessi è un fattore critico di successo per interpretare al meglio l’enorme mole di informazioni che abbiamo a disposizione.

Molte realtà si sono mobilitate per supportare la situazione di emergenza, come raccontato nell’articolo dell’Osservatorio Big Data & Business Analytics del Politecnico di Milano.

Il Covid-19 ci ha messo di fronte alla consapevolezza che in situazioni di emergenza e criticità sia necessario affidarsi a esperti che mettano a disposizione le loro competenze per il bene della comunità. In questo contesto, come i sofisticati sistemi di advanced analytics possono supportare situazioni complesse come quella che stiamo vivendo? Quali sono le caratteristiche chiave di sistemi di intelligence e algoritmi di machine learning?

Analytics intelligence: semplificare la comprensione di fenomeni complessi

L’intelligenza analitica è un processo di generazione di informazioni a partire dai dati. L’organizzazione e la gestione del dato si sintetizzano in pattern e schemi ricorrenti interpretabili per rispondere a domande specifiche. Comprendere ed analizzare i dati in una modalità strutturata e organizzata può avere molteplici scopi: migliorare le decisioni che un’azienda prende e ottimizzare le sue prestazioni, monitorare l’andamento ed i trend di metriche specifiche, scoprire inefficienze o comportamenti anomali.

In quest’ottica, per la comprensione delle epidemie dobbiamo essere in grado di conoscere o riconoscere dei fattori inerenti al contagio. Numerosi studi si sono susseguiti a partire dai primi anni del Novecento, ma sicuramente il lavoro pubblicato nel 1927 da Kermack e McKendrick è quello che descrive al meglio le interazioni tra fattori durante una tipica epidemia: il tasso di infezione, il tasso di guarigione e quello di mortalità. Numeri che oggi siamo continuamente abituati ad ascoltare quando Protezione Civile e Istituto Superiore della Sanità forniscono nei rispettivi comunicati.

Per lo studio delle interazioni, i due studiosi inoltre parlano di tre classi di individui coinvolti: suscettibili, infetti e guariti. In particolare, i suscettibili possono diventare infetti che a loro volta diventano guariti. Se a queste popolazioni aggiungiamo i deceduti, che nello studio delle interazioni non fanno più parte delle dinamiche delle popolazioni, ecco che vengono rappresentati i principali numeri che quotidianamente possiamo osservare .

Ecco quindi che sistemi di analytics intelligence, sfruttando tecnologie come la data visualization, possono essere considerati come strumenti a grande valore per analizzare e comprendere i numeri legati a epidemia e contagio.

WHITEPAPER
Mobilità sostenibile: come la Data Analytics avanzata aiuta la pianificazione urbana
Big Data
Smart Mobility

Gli stessi complessi strumenti di analisi delle informazioni possono tornare utili per la misurazione delle performance dei sistemi sanitari. Anche in questo settore si sono susseguiti numerosi studi negli anni arrivando a definire metriche di performance delle aziende sanitarie. L’Osservatorio sulla salute ha spesso redatto documenti che cercassero di uniformare le metriche di efficacia ed efficienza delle strutture sanitarie, incrociando e monitorando indicatori quali i tassi di ospedalizzazione, l’utilizzo dei fermaci, i risultati di esercizio, con la speranza di vita suddivisi per fasce di età, regioni e dimensioni anagrafiche. Disporsi di strumenti che in maniera fluida organizzino e correlino le informazioni tra loro è ormai una delle best practice del settore da cui non ci si può sottrarre.

Machine learning: riconoscere automaticamente schemi complessi e prevedere in anticipo situazioni critiche

Il machine learning, a differenza dell’analytics intelligence, è una branca dell’intelligenza artificiale che attraverso il calcolo algoritmico è in grado di fare riconoscere autonomamente alla macchina pattern ricorrenti tra i dati.

Esistono diverse tipologie di algoritmi inerenti al machine learning e tutte possono portare un valore aggiunto intrinsecamente espresso nei dati. Un primo esempio sono gli algoritmi supervisionati che studiano nel passato il comportamento di un evento target identificando le relazioni di causa-effetto endogene ed esogene che lo hanno fatto manifestare, ed essendo in grado di prevedere comportamenti futuri sulla popolazione attuale. Algoritmi non supervisionati invece sono mettono a confronto le caratteristiche di una popolazione identificando gruppi distinti che presentano un mix di informazioni omogenee all’interno del singolo gruppo, ma eterogenee tra gruppi; sono algoritmi che permettono di misurare le singole unità della popolazione in termini di anomalia e distanza dai valori medi dei diversi gruppi. Ulteriori algoritmi sono quelli relativi all’analisi automatica del testo, che permettono di analizzare grandi moli di documenti scritti, che siano essi articoli di giornale, post di social network, domande e risposte nei blog, ed attraverso tecniche di topic discovery e natural language processing sono in grado di individuare argomenti di discussione e sentiment espresso dalle persone.

Un caso di studio interessante in risposta alla pandemia è quello che ruota attorno all’identificazione di un vaccino. Gli attuali metodi implicano molte prove ed errori, che richiedono risorse e tempistiche molto elevate. L’utilizzo di algoritmi di apprendimento automatico possono essere dei facilitatori importanti di questo processo senza sacrificare l’accuratezza e la qualità del risultato. Ne è stato un esempio la sperimentazione su Ebola, dove i ricercatori nel cercare inibitori di piccole molecole del virus hanno scoperto che l’addestramento dei modelli bayesiani (tipologia di modello di machine learning) velocizzavano notevolmente l’assegnazione di un punteggio probabilistico che la molecola potesse essere di aiuto all’inibizione. Lo stesso principio è stato riscontrato anche su algoritmi di Random Forest per i ricercatori che lavorano su H7N9.

Algoritmi per la prevenzione

Rimanendo nel settore sanitario, un ulteriore esempio relativo alla prevenzione arriva dall’algoritmo home made che l’ospedale di Vimercate ha allenato e che aiuterà le diagnosi dei medici, anticipando cure ed esami da sottoporre ai pazienti. Con tale algoritmo supervisionato sarà inoltre possibile anticipare l’arrivo di un sintomo per comprendere le cause di un malanno. Per solo quelle previsione con margine di errore molto ridotto, la macchina fornirà agli esperti medici una previsione della malattia che colpirà il paziente in un prossimo futuro. Questo algoritmo presenta un duplice beneficio, per il paziente che può essere intercettato anticipatamente nel ciclo di vita della diagnosi, ma anche per l’ospedale che sarà in grado di rispondere tempestivamente alle esigenza della popolazione e ottimizzare le proprie risorse economiche.

 

 

FacebookTwitterLinkedInWhatsApp

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*