Cloud computing

L’accessibilità dei big data è protagonista al Data Summit

Google Cloud ha svelato una serie di nuovi prodotti e novità per rendere più accessibili a tutte le aziende gli insights relativi ai processi data driven e alla trasformazione digitale

Pubblicato il 12 Apr 2022

Data connection manager (DCM): cos'è e come gestisce le informazioni

Google Cloud promuove l’accessibilità dei big data con nuovi innovativi strumenti. Lo ha spiegato il colosso di Mountain View in occasione del Data Summit. Ecco come.

Google Cloud spinge sull’accessibilità dei big data

Google Cloud ha svelato una serie di nuovi prodotti e novità per rendere più accessibili a tutte le aziende di ogni dimensione gli insights relativi a:

  • processi data-driven;
  • trasformazione digitale.

Inoltre, i prodotti e i servizi, al centro del Google Cloud Data Summit, includono:

  • BigLake e Spanner change streams per unificare i dati dei clienti mentre ne assicurano la distribuzione in tempo reale;
  • Vertex AI Workbench e Model Registry, dedicati ad aziende che intendono alimentare l’intelligenza artificiale;
  • nuove esperienze unificate di business intelligence.

Cos’è BigLake

BigLake è un motore di data lake storage, disponibile in anteprima, che vuole unificare i data lake e i data warehouse.

Con BigLake, le aziende possono unificare i loro data warehouse e data lake, analizzando i dati in loco, senza preoccuparsi del format di storage o del sistema sottostante.

Grazie a ciò, Google sta eliminando il bisogno di duplicare o spostare i dati. Il servizio fornisce controlli di accesso alle Api (application programming interface) che spaziano fino a Google Cloud e ai processing engine open source come Apache Spark, oltre ai formati di file open come Parquet.

Data cloud senza limiti nell’era dei dati infiniti

“Il divario data-to-value sta aumentando”, commenta Gerrit Kazmaier, vice presidente e general manager dei database, data analytics e Looker business intelligence di Google Cloud.

Vecchie architetture dati e concetti richiedono invece “cambiamenti di paradigma”.

Infatti, un’azienda deve capire se è un’azienda che genera big data, e dunque comprendere che i data workload e le tipologie di dati continuano ad espandersi e a pensare che l’impatto dei dati raggiunge tutti i plauer di un’organizzazione:

  • clienti;
  • partner;
  • fornitori.

“Poiché crediamo in dati infiniti”, conclude Kazmeier, “abbiamo bisogno di data cloud senza limiti”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3