Che cos’è il principio GIGO (Garbage in – Garbage out) nella Data Quality

Che cos’è il principio GIGO (Garbage in – Garbage out) nella Data Quality

Data Quality: Filter e GIGO – “Garbage in – Garbage out”

Le conseguenze della scarsa qualità dei dati sono spesso vissute nella vita di tutti i giorni, ma senza effettuare i necessari collegamenti con le sue cause.

La qualità dei dati è oltremodo riconosciuta come una questione di performance abbastanza rilevante nei processi operativi e nelle attività decisionali. A tal proposito, il ben noto principio di “Garbage In Garbage Out (GIGO)” indica che indipendentemente da quanto sia avanzato lo sviluppo delle tecniche e delle metodologie rispetto a nuove soluzioni software, la qualità dei dati è ancora un fattore importante nel funzionamento di successo dei sistemi IT.

In effetti, una visione tradizionale della modellazione al computer ha perpetuato questo tipo di concetto, che, non importa quanto sia sofisticata l’analisi, i risultati finali potrebbero non essere attendibili. Infatti, se il dato di input non è accurato, l’output non lo sarà altrettanto.

Che cos'è il principio GIGO (Garbage in - Garbage out) nella Data Quality

Le dimensioni individuate per identificare la qualità dei dati sono:

  • “Precisione”: l’imprecisione implica che il sistema informativo rappresenti uno stato del mondo reale diverso da quello che avrebbe dovuto essere “rappresentato”. Imprecisione si riferisce a una mappatura confusa in uno stato errato dell’IS (Information System).
  • “Affidabilità” indica “se si può contare sui dati per trasmettere la giusta formazione; Essa può essere vista come la correttezza dei dati”.
  • La “tempestività” si riferisce al “ritardo tra un cambiamento dello stato del mondo reale e la conseguente modifica dello stato del sistema informativo”.
  • La “completezza” è “la capacità di un sistema informativo di rappresentare ogni stato significativo del sistema rappresentato nel mondo reale”.
  • La “coerenza” dei valori dei dati si verifica se esiste più di uno stato del sistema informativo che corrisponde a uno stato del sistema reale; quindi “incoerenza significherebbe che la mappatura della rappresentazione è uno a molti.

In generale si dovrebbero tenere in considerazione queste tre fasi per la qualità dei dati:

  1. “State Reconstruction”, che ha lo scopo di raccogliere informazioni contestuali su processi e servizi organizzativi, raccolte di dati e relative procedure di gestione, problemi di qualità e costi corrispondenti; questa fase può essere saltata se delle informazioni sono disponibili da analisi precedenti.
  2. “Valutazione/Misurazione”, che misura la qualità delle raccolte di dati lungo le dimensioni di qualità pertinenti. Il termine misurazione viene utilizzato per affrontare il problema nel misurare il valore di un insieme di dimensioni della qualità dei dati. Il termine valutazione è utilizzato quando tali misurazioni vengono confrontate con valori di riferimento, al fine di abilitare una diagnosi di qualità.
  3. Il “miglioramento” riguarda la selezione dei passaggi, delle strategie e delle tecniche per raggiungere nuovi obiettivi di qualità dei dati

Pubblicato da Vito Lavecchia

Lavecchia Vito Ingegnere Informatico (Politecnico di Bari) Email: [email protected] Sito Web: https://vitolavecchia.altervista.org

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *