• Le pratiche tradizionali di storage di dati in Silos e Data Lake non trovano più spazio nel complesso panorama dei Big Data

  • Nuove tecnologie di Virtualizzazione consentono di unificare i dati in un unico posto, facilitando l’accesso e l’analisi “self-service

  • Previsioni per il 2020 dimostrano che le soluzioni di DV aumenteranno del 35%

Oggi ci troviamo in quella che possiamo definire la “seconda ondata” dei Big Data. Una fase in cui l’approccio delle aziende medie e grandi al complesso mondo della digital trasformation sembra essersi più o meno consolidato. L’attenzione verso il reale valore rappresentato dai dati è sicuramente aumentata, come dimostrato da recenti studi di settore.

Permane però un problema: i dati da analizzare non mancano, ma sono spesso archiviati attraverso tecnologie di Data Warehousing oramai datate, o comunque non ottimizzate per far fronte a una vera e propria “fame” di dati. Le problematiche più diffuse sono la difficoltà di accesso ai dati, l’alto costo di gestione e integrazione con altri servizi,  la necessità di creare copie dei dati per effettuare analisi.

È qui che entra in gioco la Data Virtualization, una tecnologia che sta suscitando sempre più interesse. Attraverso un approccio completamente diverso rispetto al data processing tradizionale, permette infatti di superare molte delle problematiche appena citate.

 

Come funziona esattamente la Data Virtualization?

Attraverso la virtualizzazione è possibile creare delle copie, o meglio delle viste dei dati, fornendone una visione integrata, lasciando le informazioni originali esattamente dove si trovano. Di conseguenza, le aziende non devono pagare i costi di spostamento e custodia dei dati, godendo comunque di tutti i vantaggi di una integrazione.

Le visualizzazioni virtualizzate consentono inoltre di ridurre la complessità dell’accesso, dando quindi la possibilità di accesso ed elaborazione anche ad utenti meno esperti.

Il caching dei dati permette poi in molti casi di velocizzare l’accesso, in alcuni casi per ordini di grandezza davvero significativi.

In sintesi: i vantaggi dell’adozione di un sistema di virtualizzazione sono:

  • Sorgenti dati: connessione a sorgenti dati di qualunque tipologia
  • Data transformation: avere a disposizione i dati nel formato più utile a seconda dei contesti d’uso.
  • Semplificazione: rendere i dati accessibili attraverso interfacce più semplici e intuitive, a portata di data analyst e team di sviluppo
  • Performance: ridurre il query time e velocizzare enormemente l’accesso ai dati attraverso il caching delle strutture dati

Dremio – Data as a Service

Tra le soluzioni in grado di risolvere il problema della gestione dei Data Lake abbiamo Dremio, una piattaforma che semplifica l’accesso ai dati da qualsiasi sorgente, rendendo le informazioni disponibili in modalità Self-Service in modo semplice e rapido.

Dremio è in grado di interfacciarsi con i principali tool di BI, accelerando la velocità di consultazione dei dati tramite un meccanismo di caching. Può infatti creare e memorizzare una copia dei dati in ingresso, che vengono strutturati in formato tabulare e diventano interrogabili con semantica SQL.

 

Maggiori informazioni: Dremio su seacom.it

Video: presentazione Dremio @Esinaday2018

Contatta Seacom

Vuoi rimanere aggiornato su tutte novità su Data Virtualization o richiedere una consulenza a Seacom?
Visita la pagina dedicata, oppure