Stiamo assistendo ad una crescita dei dati inesorabile e complessa. Ma che costituisce un elemento ormai fondamentale nel processo di decision making per il proprio business. Quando si parla di Big Data è difficile non partire da questa constatazione. Si tratta, infatti, di raccogliere, elaborare e analizzare dati massicci, sempre meno strutturati, piuttosto eterogenei e decisamente ingombranti, nell’ordine di molti petabyte (l’unità di misura equivalente ad un milione di gigabyte).
Il paradosso è che la potenza di calcolo e quella di elaborazione dei computer sono in costante miglioramento, ma in linea generale è sempre più complicato avere le capacità di estrarre dai dati informazioni davvero utili e rilevanti per prendere decisioni in modo rapido.
D’altra parte, stanno crescendo i dispositivi che lavorano grazie a circuiti di feedback con tecnologie in cloud e, anno dopo anno, è sempre maggiore il numero di endpoint, device che producono dati mentre l’uomo se ne serve. Per esempio, apparecchi indossabili, palmari o dispositivi dotati di sensori (Internet of Things).
Una cosa è certa: in uno scenario contraddistinto da volumi di dati abbondanti e facilmente reperibili anche grazie alla crescente disponibilità di open data, senza il giusto input umano combinato con l’utilizzo di tecnologie di data analytics e intelligenza artificiale, può rivelarsi difficile distinguere tra rumori, informazioni dettagliate, o errate e inutili.
In questo contesto, quindi, in che modo si stanno comportando le aziende per non “affogare” nei propri dati, ma anzi poterli utilizzare come supporto alle scelte fondamentali per le loro attività?
In linea di massima lo studio dei grandi volumi di dati si basa su questi aspetti: