Alfabetizzazione: la prossima frontiera dei Big Data

Redazione BacktoWork 20/05/2022

Si chiama Data Literacy, alfabetizzazione dei dati, ed è l’abilità di leggere, analizzare e comunicare attraverso i dati ponendo alla macchina le domande più corrette per ottenere risposte funzionali al decision making

Comprendere, scrivere e comunicare i dati in un determinato contesto, nonché saper analizzare le loro fonti e i loro costrutti, mediante l’applicazione di metodi e tecniche specifiche. Tutto questo, in sintes,i è la Data Literacy, l’alfabetizzazione dei dati.

Può essere definita, a ragion veduta, una delle grandi sfide dei CDO (Chief Data Officer) in tutte le aree geografiche del mondo e indipendentemente dalle categorie merceologiche delle aziende nelle quali operano.

A conferma di questa tesi c’è una serie di considerazioni ricorrenti nella stragrande maggioranza delle indagini sul tema: da qui al 2030, l’alfabetizzazione dei dati sarà una delle competenze IT più richieste, e i responsabili della gestione dei dati in azienda ritengono - pressoché all’unanimità - che sarà un requisito vitale come lo è oggi la capacità di utilizzare un Pc.

D’altro canto, però, emerge anche che, secondo i dipendenti, i datori di lavoro non stanno ancora creando le condizioni per un ambiente davvero orientato all’automatizzazione dei dati.

I tre elementi-chiave

Affinché possa rivelarsi vincente nel fornire output funzionali a migliorare i processi decisionali, la data literacy deve fare ricorso a una serie di altri processi e strumenti.

Il più importante è senz’altro la Business Intelligence, che ha il compito di supportare l’alfabetizzazione delle informazioni presentando risultati analitici sotto forma di dashboard, grafici e report anche quando i dati provengono da fonti differenti.

Un altro set di strumenti essenziali è quello definito dalla Data Visualization, che permette di costruire modelli predittivi, modificare i dati, integrare nuove fonti, creare query complesse e analizzare informazioni non strutturate. Il tutto senza dover possedere competenze di programmazione.

Essenziale tanto quanto i precedenti è il processo della cosiddetta Data Quality, cioè l’insieme di tutto quanto è necessario per ripulire e gestire i dati, e dal quale dipende in larga parte l’affidabilità del processo decisionale. Questo passaggio è quello che permette ai sistemi di integrare tutti i dati correlati per offrire una visione completa e tutte le loro interrelazioni.


Potrebbe interessarti anche:

business management innovation economy

L'Innovation Manager: chi è, cosa fa, quanto guadagna

innovation economy

Cos'è una smart city? Definizione e caratteristiche

startup & pmi innovation economy

Come siamo ripartiti investendo sull’economia reale: così racconterò questa crisi a mia figlia