Data analytics, machine learning e intelligenza artificiale nell’operatività delle reti di tlc

Risulta vincente il “pacchetto” complessivo: applicazioni sempre più smart che viaggiano su reti altrettanto smart, che hanno consapevolezza della tipologia di applicazioni che trasportano e di conseguenza possano adattarsi dinamicamente. In attesa dello sviluppo delle reti 5G [...]
Giancarlo Porcu

Network Automation and Analytics, Senior Business Development Manager Telco&Media Market di Italtel

data analytics reti tlc
  1. Home
  2. Big Data
  3. Data analytics, machine learning e intelligenza artificiale nell’operatività delle reti di tlc

L’uso dei dati nelle reti di telecomunicazione: i dati raccolti sulle infrastrutture di rete possono essere utilizzati per migliorare proattivamente le performance in logica data-driven e con uso di artificial intelligence e machine learning. Alcuni anni fa era piuttosto animato il dibattito che contrapponeva le ragioni e il ruolo degli operatori Telco rispetto a quelli degli OTT. I primi avevano l’ambizione di poter condizionare lo sviluppo delle applicazioni, in particolare producendone di proprie o immaginando dei “dazi” per trasportare alcune tipologie di traffico, mentre i secondi sostenevano che fosse l’inizio di una nuova era in cui “il contenuto” era preponderante rispetto al veicolo, che poteva addirittura essere un dump pipe. Oggi si predilige la data analytics per le reti tlc.

Evoluzione delle reti tlc verso la data analytics

Il modello che è parso affermarsi in questi ultimi anni, infatti, è quello in cui risulta vincente il “pacchetto” complessivo: applicazioni sempre più smart che devono viaggiare su reti altrettanto smart, che abbiano consapevolezza della tipologia di applicazioni che trasportano e che di conseguenza possano adattarsi dinamicamente, ottimizzando le proprie caratteristiche di performance per garantire la migliore qualità di esperienza possibile al cliente finale.

Dal punto di vista degli operatori ciò ha consentito di poter riaffermare il proprio ruolo di “veicolatori” intelligenti di traffico e la competizione tra loro, oltre che sugli aspetti tariffari, si sta spostando sempre più verso l’adozione di una Intelligent Network che sappia identificare, classificare, misurare tale traffico e, entro i limiti posti dai principi della network neutrality, che lo sappia gestire con il ricorso a soluzioni automatizzate.

Questo approccio si affianca necessariamente a quello tradizionale, che prevede un aumento della capacità trasmissiva in risposta ai crescenti volumi medi di traffico trasportato, ma che mostra dei limiti intrinseci nella gestione dei picchi.

Tutto ciò in attesa degli ormai prossimi deployment delle architetture 5G, che potranno ulteriormente diversificare i campi di applicazione, aprendo la strada ad ulteriori soggetti e a nuove esigenze. E di fatto segnando un riferimento tecnologico che potrà trainare l’evoluzione del resto della rete verso l’impiego della data analytics e dell’automazione.

L’analisi dei dati come strumento per migliorare le performance di rete

Così come gli OTT riescono a capitalizzare magistralmente i dati raccolti, profilando gli utenti e migliorando in tal modo il servizio loro offerto, analogamente gli operatori Telco hanno a disposizione fonti informative ampie e diversificate, che potrebbero essere maggiormente valorizzate per migliorare l’efficienza e le performance delle reti.

Essi possono infatti contare su un significativo numero di misure generate dai nodi di rete, dalle piattaforme applicative, dai sistemi di gestione e monitoraggio e, in ultimo, da sonde specializzate inserite in rete. Hanno a disposizione misure di traffico dati sia a livello di accesso, sia a livello di core network e inoltre indicatori di performance, di eventi ed allarmi generati a fronte del manifestarsi di particolari condizioni. Gli operatori dispongono anche di dati e misure relativi alle applicazioni trasportate, alla numerosità degli utenti che le utilizzano ed una serie di informazioni puntuali tipiche della famiglia di appartenenza di tali applicazioni (es.: page load time per il web browsing, latenza e risoluzione per il videostreaming, etc.).

Il limite è che spesso tali dati, di tipologia differente, sono confinati alle piattaforme che li generano e non vengono messi a fattor comune.

 

data analytics reti tlc

Quale valore aggiunto dalla data analytics applicata alle reti tlc

Per poter governare una tale crescente complessità diventa centrale agire su un doppio piano:

  • integrare e correlare le basi informative esistenti tra loro.
  • arricchire la base informativa disponibile in modo da avere una migliore conoscenza delle applicazioni trasportate dalla rete;

È quindi fondamentale capire non solo il volume di traffico generato dalle applicazioni, ma anche il numero degli utenti che le utilizzano, la loro distribuzione geografica, la tipologia di accessi e di dispositivi utilizzati.

WHITEPAPER
SAP S/4HANA per il cost saving: quanto si risparmia con l’ERP SAP di nuova generazione
Amministrazione/Finanza/Controllo
Big Data

Per le applicazioni più utilizzate è importante conoscere la presenza o meno di meccanismi che consentono di adattarsi alla maggiore o minore disponibilità di banda. Ad esempio, le applicazioni di videostreaming adattano automaticamente la risoluzione del contenuto in base alle diverse condizioni di banda e gestiscono dinamicamente il buffering dei pacchetti trasmessi sul client di destinazione in funzione della tipologia di dispositivo. Sempre per ogni applicazione può essere necessario definire e monitorare specifici KPI sulla qualità dei servizi erogati al cliente finale e, sulla base dell’andamento dei KPI, attivare eventuali controlli sulla rete e i processi di troubleshooting.

Questi obiettivi prevedono l’attivazione di attività di monitoraggio dedicate alle specifiche applicazioni da cui ricavare misure puntuali che, combinate e correlate con informazioni più legate alle performance fisiche di rete, permettono di costruire una vista complessiva ed a più dimensioni di ciò che accade ai flussi di traffico. Tutto questo allo scopo di intervenire puntualmente nella gestione di situazioni di picco temporanee o di predisporre con anticipo adeguamenti dimensionali permanenti.

Nondimeno, infine, i driver tecnologici che stanno guidando l’evoluzione delle reti hanno alla base una progressiva introduzione di processi automatici nella configurazione e gestione delle stesse, che troveranno piena attuazione con l’avvento delle architetture 5G, con l’uso pressoché esclusivo dei paradigmi Software-Defined Networking (SDN), Network Function Virtualization (NFV) ed Edge Cloud e con il ricorso sempre più frequente all’intelligenza artificiale.

La condizione per il loro corretto funzionamento sarà la disponibilità di fonti informative che dovranno essere opportunamente trattate ed elaborate.

Raccogliere e analizzare i dati di trend sulle applicazioni in rete per migliorare la Quality of Experience

Considerazioni interessanti si possono fare anche sulla base dell’analisi dei trend, da cui è possibile evidenziare come si modifica la composizione delle applicazioni maggiormente utilizzate dagli utenti, il grado di prevalenza dell’una rispetto all’altra all’interno delle stesse categorie o si possono costruire dei modelli su eventuali cambiamenti nella modalità di fruizione delle applicazioni da parte dell’utente finale in funzione della tipologia di dispositivo o della rete di accesso.

Per quanto riguarda il video streaming, ad esempio, è possibile ottenere misure di dettaglio per ciascuna delle principali applicazioni utilizzate (Netflix, YouTube, Amazon Video, etc.): durata della fruizione, latenza, risoluzione video, numero e durata stall (lo stall è la situazione in cui durante la visione di un video questo si blocca e la rotellina comincia a girare; il numero e la durata degli stall, rapportata alla lunghezza del video, sono indicativi della qualità di fruizione).

Oppure si può osservare come cambia la latenza media in funzione della CDN che eroga il contenuto e, interpolando alcune misure chiave, ricavare un valore sintetico di Quality of Experience (QoE) percepita dall’utente. Conclusioni analoghe valgono, con qualche adattamento, per la quota parte di traffico cifrato.

Raffinando l’analisi sui dati raccolti si riesce anche ad identificare flussi di traffico di provenienza e contenuto illecito. È il caso del traffico streaming illegale di contenuti live, ad esempio eventi sportivi che sono a pagamento presso le piattaforme che ne detengono i diritti di trasmissione ma che vengono “trasmessi illegalmente” da altri siti.

Un’analisi attenta delle misure di RTT e latenza può invece rivelare eventuali situazioni di congestione in particolari punti di accesso alla rete, ad esempio a livello di Radio Access Network (RAN) sulla rete mobile.

Scenari di intelligenza artificiale e machine learning applicati alle reti tlc

L’applicazione di tecniche di artificial intelligence (AI) e machine learning (ML) sugli stessi data lake menzionati finora apre la strada a scenari particolarmente interessanti.

Uno di questi è il rilevamento precoce di anomalie nella rete (Early Anomaly Detection). A partire dall’analisi di serie temporali relative a diverse tipologie di misurazioni, si costruiscono delle matrici di correlazione per evidenziare quante e quali sono le dipendenze reciproche tra di loro, individuare le misure indipendenti e, a partire da queste, costruire delle baseline che consentono di identificare change point o outlier che sono spie di un possibile comportamento anomalo.

Un secondo scenario è relativo alla corretta interpretazione di alcuni eventi di allarme che, elaborati rispetto ad altri dati disponibili, possono portare a classificare un allarme come un falso positivo. Ad esempio, l’improvvisa decrescita del traffico che fluisce su determinati link al termine di eventi live (es.: una partita di calcio) potrebbe essere scambiato dai sistemi di monitoraggio come un problema su tali circuiti, generando degli allarmi. Una logica di AI che conosce sia i pattern abituali di traffico sia le condizioni contingenti che si verificano (es.: era prevista una partita tra squadre il cui bacino d’utenza poteva essere localizzato geograficamente) è in grado di qualificare questi come falsi allarmi, evitando l’apertura di ticket e le conseguenti inefficienze operative. In realtà, si tratterebbe solo della “disconnessione” pressoché simultanea di un gran numero di utenti al termine di un evento streaming.

Proseguendo con l’esempio dell’evento calcistico, la stessa logica si può utilizzare per prevedere in anticipo che una determinata partita potrà creare una sofferenza di banda in alcuni Point of Presence (PoP) Questa informazione consente di configurare capacità aggiuntiva in quel determinato PoP per la sola durata dell’evento e di ritornare alla situazione normale ad evento concluso. Grazie alle tecniche di machine learning questa metodologia può essere applicata ad un’ampia gamma di casi in cui l’analisi di più variabili porta alla costruzione di modelli previsionali.

Sono stati sviluppati diversi progetti che hanno riguardato l’applicazione di algoritmi di machine learning (Italtel). In un caso lo si è applicato con finalità di rilevamento precoce delle anomalie sulla rete a partire dall’analisi delle misure del traffico videostreaming, combinate con informazioni esogene, come ad esempio il palinsesto del provider che erogava il servizio oggetto di analisi. Un altro progetto ha riguardato un’analisi predittiva sull’andamento delle caratteristiche di connessione per specifiche tipologie di accessi come ad esempio il wi-fi, di cui si vuole monitorare in modo intelligente la qualità della copertura indoor.

Data analytics per le reti tlc: progetti e realizzazioni

In ambito analytics e business intelligence si possono citare soluzioni in grado di riconoscere e misurare il traffico applicativo che viaggia in rete, compreso quello delle applicazioni OTT, che producono misurazioni e statistiche con una frequenza che va dai 5 ai 15 minuti. Le misure riguardano tutte le applicazioni che transitano in rete (fino ad un migliaio) e che possono essere raggruppate nelle categorie del web browsing, del peer to peer, del video streaming, della collaboration, etc.

Sono misure di banda up/down, latenza, round trip time (RTT), indicazioni sulla distribuzione dei contenuti nei diversi Point of Presence (PoP) della rete, tipologia di accesso, tipologia di device utilizzato, etc.

Nonostante un numero crescente di applicazioni trasportino il loro payload in modalità cifrata, le soluzioni in essere sono in grado di ricostruirne la sintassi e quindi di produrre misure analoghe a quelle per il traffico in chiaro. È possibile, inoltre, ricavare preziose informazioni sulle sorgenti di tale traffico che, nel caso ad esempio del video streaming, equivale ad avere l’informazione circa la Content Delivery Network (CDN) di origine.

Nella successiva fase di post elaborazione dei dati si può analizzare l’andamento storico delle fruizioni delle singole applicazioni, vedere come queste cambiano nell’arco della giornata, quali caratteristiche assumono durante il weekend, oppure come si comportano in corrispondenza di particolari eventi, come ad esempio eventi live per quanto attiene il video streaming. Analogamente è possibile rappresentare come cambiano in funzione della tipologia di accesso, ad esempio ADSL vs. FTTC/VDSL e FTTH nelle reti fisse, oppure 3G/4G vs. Fixed Wireless Access (FWA) nel mobile, oppure rispetto alla distribuzione geografica degli utenti.

Un simile approccio ha consentito di identificare e misurare la crescita delle applicazioni di videocomunicazione e collaboration già nella prima fase della pandemia legata al Covid-19. Si è rilevato quali, fra quelle più popolari, avevano un maggior numero di utenti e quale è stato il volume di traffico complessivo generato da ciascuna di queste. Analoghe considerazioni sono state fatte per quanto riguarda le applicazioni a supporto della didattica a distanza.

Inoltre, questa tipologia di rilevamento può essere customizzata per intercettare applicazioni sviluppate dall’operatore stesso per le quali si voglia mantenere attivo il monitoraggio e avere un insieme di misure dedicate.

 

WEBINAR
FORUM PA 2021- Sanità: con i Big Data nuovo modello di salute connessa e predittiva
Big Data
Intelligenza Artificiale

 

FacebookTwitterLinkedInWhatsApp

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*