Soldi

Deviazione Standard – Definizione e Significato

Deviazione standard è un concetto statistico e, più precisamente, una misura della variabilità dei dati appartenenti a un determinato insieme: dà un valore cioè al loro grado di diversità. Più è alta tale misura, maggiori sono le differenze numeriche fra i valori che compongono l’insieme considerato.

Quando è nulla, cioè è uguale a zero, tutti i dati dell’insieme hanno identico valore. La variabilità può essere calcolata in vari modi. I principali tuttavia sono due. O calcolando la differenza rispetto a un determinato polo di riferimento (per esempio rispetto alla media, alla mediana, o alla moda), e queste sono le cosiddette misure della dispersione, o calcolando le differenze di ciascun dato rispetto a ogni altro, e allora si hanno le misure di mutua variabilità. La deviazione standard è una misura di dispersione. Calcola cioè la diversità di ciascun dato dell’insieme rispetto alla sua media algebrica.

Più precisamente, è essa stessa una media: la media quadratica degli scostamenti fra i valori osservati e la loro media aritmetica. Per calcolarla è sufficiente fare la radice quadrata della media degli scarti al quadrato. Per questo motivo, è anche detta scarto o scostamento quadratico medio. La deviazione moltiplicata per se stessa, ossia al quadrato, prende il nome di varianza. Rispetto a quest’ultima, la deviazione standard presenta un grande vantaggio: dà la misura della dispersione nella stessa unità di misura dei dati presi in considerazione e non, come accade alla varianza, in unità di misura al quadrato. Prendendo a esempio la distribuzione della ricchezza personale nelle diverse regioni italiane e calcolandone la dispersione intorno alla media nazionale, con la deviazione standard si ottiene un valore in termini di migliaia di euro. Con la varianza invece, si ha un valore in termini di migliaia di euro “quadrati”. Che non sono certamente il prodotto di un’improbabile operazione della Zecca per la quadratura delle monete metalliche. La deviazione standard, in quanto misura assoluta della variabilità, cioè calcolata facendo riferimento a un’unità di misura, ha un non piccolo svantaggio.

Il suo valore viene a dipendere dalla grandezza dei dati su cui viene calcolata. Se si pongono a confronto due deviazioni standard riferentesi a dati di grandezza molto differente (supponiamo il primo insieme calcolato in unità, l’altro in migliaia), oppure a dati con unità di misura differente (euro e chili per esempio), è impossibile dire quale sia l’insieme con maggiore variabilità. Per questo motivo, vengono calcolate misure di variabilità relativa, ottenute per esempio dividendo la deviazione standard per la media aritmetica dei dati oppure per il valore massimo che tale variabilità può assumere all’interno dell’insieme considerato. Si ottengono in questo modo numeri puri, quindi dati idonei a raffronti omogenei.

Back To Top