I dati sono sempre più “Big”, eterogenei, difficili da interpretare, studiare e normalizzare, ma ormai fondamentali per prendere decisioni in tempo reale.
Impossibile, quindi, non tenerne conto in un’ottica di strategia aziendale che sia davvero data driven.
Una delle grandi sfide di oggi è individuare nuovi approcci per velocizzare e rendere più efficiente il loro utilizzo, un’impresa tutt’altro che semplice se si considera che le aziende devono fare i conti con il problema della pluralità delle fonti di dati contenuti in database diversi, e con differenti tecnologie di archiviazione ed estrazione delle informazioni, anche all’interno di uno stesso sistema informatico. Senza contare ulteriori fonti quali i web service e le soluzioni in cloud.
Quel che serve, quindi, è un’architettura che tenga conto di queste interconnessioni, capace cioè di collegare elementi di data center, mainframe o servizi secondo una logica funzionale finalizzata a precisi obiettivi di collaborazione dei team basata sulle informazioni.
Per farlo è necessario creare una sorta di trama di connessioni, detta Data Fabric, secondo un concetto direttamente mutuato dal grid computing, sviluppato all’inizio degli anni ’90.
Ogni nodo di un simile sistema distribuito può avere caratteristiche differenti e svolgere una specifica porzione della attività macro di cui si occupa la grid.
Una struttura progettata secondo i criteri del Data Fabric permette quindi di usare anche database relativamente datati garantendo allo stesso tempo la scalabilità necessaria a chi intende analizzare grandi quantità di informazioni.
Si tratta, in pratica, di costruire un sistema complesso partendo da nodi più semplici, attraverso un’accurata progettazione, unificando e aggiornando i metodi di, che potrebbero avere protocolli di comunicazione diversi, e unificando il tutto con un moderno sistema di gestione e interrogazione.