Mi chiedo se la deviazione standard sia sempre stata fondata sul presupposto di una distribuzione normale. In altre parole, se il campione non è normalmente distribuito, allora usare la deviazione standard dovrebbe essere considerato un errore?
Mi chiedo se la deviazione standard sia sempre stata fondata sul presupposto di una distribuzione normale. In altre parole, se il campione non è normalmente distribuito, allora usare la deviazione standard dovrebbe essere considerato un errore?
Risposte:
No. L'uso della deviazione standard non presuppone la normalità.
La varianza di una variabile casuale è definita come . Finché esiste la varianza, esiste anche la deviazione standard. La deviazione standard è la radice quadrata della varianza.
È possibile utilizzare la varianza o la deviazione standard ogni volta che esistono i due. La varianza emerge in innumerevoli situazioni.
Ci sono teoremi speciali, lemmi ecc ... per il caso speciale in cui segue la distribuzione normale.
Se segue la distribuzione normale, allora c'è circa una probabilità del 95% che X rientri in due deviazioni standard della media.
Questa affermazione è vera se segue la distribuzione normale (e molte altre) ma non è vera in generale.
Sia una variabile casuale con media E [ X ] = μ e varianza Var ( X ) = σ 2 . Definire X i per i = 1 , ... , n come variabili casuali indipendenti, ciascuna dopo la distribuzione identica come X .
Definire la media del campione in base a osservazioni come: ˉ X n = 1