Perché stiamo usando una formula di deviazione standard distorta e fuorviante per di una distribuzione normale?


20

Mi è sembrato un po 'scioccante la prima volta che ho fatto una normale simulazione Monte Carlo di distribuzione e ho scoperto che la media di deviazioni standard da campioni, tutti con una dimensione del campione di solo , si è rivelata molto inferiore rispetto alla media di volte, il utilizzato per generare la popolazione. Tuttavia, questo è ben noto, se raramente ricordato, e in qualche modo lo sapevo, o non avrei fatto una simulazione. Ecco una simulazione.100100n=22πσ

Ecco un esempio per prevedere gli intervalli di confidenza al 95% di usando 100, , stime di e .N(0,1)n=2SDE(sn=2)=π2SD

 RAND()   RAND()    Calc    Calc    
 N(0,1)   N(0,1)    SD      E(s)    
-1.1171  -0.0627    0.7455  0.9344  
 1.7278  -0.8016    1.7886  2.2417  
 1.3705  -1.3710    1.9385  2.4295  
 1.5648  -0.7156    1.6125  2.0209  
 1.2379   0.4896    0.5291  0.6632  
-1.8354   1.0531    2.0425  2.5599  
 1.0320  -0.3531    0.9794  1.2275  
 1.2021  -0.3631    1.1067  1.3871  
 1.3201  -1.1058    1.7154  2.1499  
-0.4946  -1.1428    0.4583  0.5744  
 0.9504  -1.0300    1.4003  1.7551  
-1.6001   0.5811    1.5423  1.9330  
-0.5153   0.8008    0.9306  1.1663  
-0.7106  -0.5577    0.1081  0.1354  
 0.1864   0.2581    0.0507  0.0635  
-0.8702  -0.1520    0.5078  0.6365  
-0.3862   0.4528    0.5933  0.7436  
-0.8531   0.1371    0.7002  0.8775  
-0.8786   0.2086    0.7687  0.9635  
 0.6431   0.7323    0.0631  0.0791  
 1.0368   0.3354    0.4959  0.6216  
-1.0619  -1.2663    0.1445  0.1811  
 0.0600  -0.2569    0.2241  0.2808  
-0.6840  -0.4787    0.1452  0.1820  
 0.2507   0.6593    0.2889  0.3620  
 0.1328  -0.1339    0.1886  0.2364  
-0.2118  -0.0100    0.1427  0.1788  
-0.7496  -1.1437    0.2786  0.3492  
 0.9017   0.0022    0.6361  0.7972  
 0.5560   0.8943    0.2393  0.2999  
-0.1483  -1.1324    0.6959  0.8721  
-1.3194  -0.3915    0.6562  0.8224  
-0.8098  -2.0478    0.8754  1.0971  
-0.3052  -1.1937    0.6282  0.7873  
 0.5170  -0.6323    0.8127  1.0186  
 0.6333  -1.3720    1.4180  1.7772  
-1.5503   0.7194    1.6049  2.0115  
 1.8986  -0.7427    1.8677  2.3408  
 2.3656  -0.3820    1.9428  2.4350  
-1.4987   0.4368    1.3686  1.7153  
-0.5064   1.3950    1.3444  1.6850  
 1.2508   0.6081    0.4545  0.5696  
-0.1696  -0.5459    0.2661  0.3335  
-0.3834  -0.8872    0.3562  0.4465  
 0.0300  -0.8531    0.6244  0.7826  
 0.4210   0.3356    0.0604  0.0757  
 0.0165   2.0690    1.4514  1.8190  
-0.2689   1.5595    1.2929  1.6204  
 1.3385   0.5087    0.5868  0.7354  
 1.1067   0.3987    0.5006  0.6275  
 2.0015  -0.6360    1.8650  2.3374  
-0.4504   0.6166    0.7545  0.9456  
 0.3197  -0.6227    0.6664  0.8352  
-1.2794  -0.9927    0.2027  0.2541  
 1.6603  -0.0543    1.2124  1.5195  
 0.9649  -1.2625    1.5750  1.9739  
-0.3380  -0.2459    0.0652  0.0817  
-0.8612   2.1456    2.1261  2.6647  
 0.4976  -1.0538    1.0970  1.3749  
-0.2007  -1.3870    0.8388  1.0513  
-0.9597   0.6327    1.1260  1.4112  
-2.6118  -0.1505    1.7404  2.1813  
 0.7155  -0.1909    0.6409  0.8033  
 0.0548  -0.2159    0.1914  0.2399  
-0.2775   0.4864    0.5402  0.6770  
-1.2364  -0.0736    0.8222  1.0305  
-0.8868  -0.6960    0.1349  0.1691  
 1.2804  -0.2276    1.0664  1.3365  
 0.5560  -0.9552    1.0686  1.3393  
 0.4643  -0.6173    0.7648  0.9585  
 0.4884  -0.6474    0.8031  1.0066  
 1.3860   0.5479    0.5926  0.7427  
-0.9313   0.5375    1.0386  1.3018  
-0.3466  -0.3809    0.0243  0.0304  
 0.7211  -0.1546    0.6192  0.7760  
-1.4551  -0.1350    0.9334  1.1699  
 0.0673   0.4291    0.2559  0.3207  
 0.3190  -0.1510    0.3323  0.4165  
-1.6514  -0.3824    0.8973  1.1246  
-1.0128  -1.5745    0.3972  0.4978  
-1.2337  -0.7164    0.3658  0.4585  
-1.7677  -1.9776    0.1484  0.1860  
-0.9519  -0.1155    0.5914  0.7412  
 1.1165  -0.6071    1.2188  1.5275  
-1.7772   0.7592    1.7935  2.2478  
 0.1343  -0.0458    0.1273  0.1596  
 0.2270   0.9698    0.5253  0.6583  
-0.1697  -0.5589    0.2752  0.3450  
 2.1011   0.2483    1.3101  1.6420  
-0.0374   0.2988    0.2377  0.2980  
-0.4209   0.5742    0.7037  0.8819  
 1.6728  -0.2046    1.3275  1.6638  
 1.4985  -1.6225    2.2069  2.7659  
 0.5342  -0.5074    0.7365  0.9231  
 0.7119   0.8128    0.0713  0.0894  
 1.0165  -1.2300    1.5885  1.9909  
-0.2646  -0.5301    0.1878  0.2353  
-1.1488  -0.2888    0.6081  0.7621  
-0.4225   0.8703    0.9141  1.1457  
 0.7990  -1.1515    1.3792  1.7286  

 0.0344  -0.1892    0.8188  1.0263  mean E(.)
                    SD pred E(s) pred   
-1.9600  -1.9600   -1.6049 -2.0114    2.5%  theor, est
 1.9600   1.9600    1.6049  2.0114   97.5%  theor, est
                    0.3551 -0.0515    2.5% err
                   -0.3551  0.0515   97.5% err

Trascina il cursore verso il basso per vedere i totali generali. Ora, ho usato lo stimatore SD ordinario per calcolare gli intervalli di confidenza del 95% attorno a una media di zero e sono disattivati ​​di 0,3551 unità di deviazione standard. Lo stimatore E (s) è disattivato di solo 0,0515 unità di deviazione standard. Se si stima una deviazione standard, un errore standard della media o una statistica t, potrebbe esserci un problema.

Il mio ragionamento era il seguente, la media della popolazione, , di due valori può essere ovunque rispetto a un e sicuramente non si trova in , che quest'ultimo costituisce una somma minima possibile assoluta al quadrato in modo da sottovalutare sostanzialmente , come seguex 1 x 1 + x 2μx1 σx1+x22σ

wlog let , quindi è , il risultato il meno possibile.Σ n i = 1 ( x i - ˉ x ) 2 2 ( dx2x1=dΣi=1n(xix¯)22(d2)2=d22

Ciò significa che la deviazione standard calcolata come

SD=Σi=1n(xix¯)2n1 ,

è uno stimatore distorto della deviazione standard della popolazione ( ). Nota, in quella formula diminuiamo i gradi di libertà di per 1 e dividiamo per , cioè facciamo una correzione, ma è solo asintoticamente corretta, e sarebbe una regola empirica migliore . Per il nostro esempio la formula ci darebbe , un valore minimo statisticamente non plausibile come , dove un valore / atteso / i migliore / sarebbeσnn1x 2 - x 1 = d SD S D = dn3/2x2x1=dSDμˉxsE(s)=SD=d20.707dμx¯sn<10DSσn25n<25n=1000E(s)=π2d2=π2d0.886d. Per il solito calcolo, per , soffre di una sottostima molto significativa chiamata distorsione da piccolo numero , che si avvicina all'1% di sottostima di quando è circa . Poiché molti esperimenti biologici hanno , questo è davvero un problema. Per , l'errore è di circa 25 parti su 100.000. In generale, la correzione della distorsione di piccolo numero implica che lo stimatore imparziale della deviazione standard della popolazione di una distribuzione normale èn<10SDσn25n<25n=1000

E(s)=Γ(n12)Γ(n2)Σi=1n(xix¯)22>SD=Σi=1n(xix¯)2n1.

Da Wikipedia sotto licenza Creative Commons si ha una trama di sottostima SD diσ <a title = "Di Rb88guy (opera propria) [CC BY-SA 3.0 (http://creativecommons.org/licenses/by-sa/3.0) o GFDL (http://www.gnu.org/copyleft/fdl .html)], tramite Wikimedia Commons "href =" https://commons.wikimedia.org/wiki/File%3AStddevc4factor.jpg "> <img width =" 512 "alt =" Stddevc4factor "src =" https: // upload.wikimedia.org/wikipedia/commons/thumb/e/ee/Stddevc4factor.jpg/512px-Stddevc4factor.jpg "/> </a>

Poiché SD è uno stimatore distorto della deviazione standard della popolazione, non può essere lo stimatore imparziale varianza minima MVUE della deviazione standard della popolazione a meno che non siamo contenti di dire che è MVUE come , che io, per uno, non lo sono.n

Per quanto riguarda le distribuzioni non normali e le approssimativamente imparziali, leggi questo .SD

Ora arriva la domanda Q1

Si può dimostrare che sopra è MVUE per di una distribuzione normale di dimensione del campione , dove è un numero intero positivo maggiore di uno?σ n nE(s)σnn

Suggerimento: (ma non la risposta) vedere Come posso trovare la deviazione standard della deviazione standard del campione da una distribuzione normale? .

Prossima domanda, Q2

Qualcuno potrebbe spiegarmi perché stiamo usando in quanto è chiaramente distorto e fuorviante? Cioè, perché non usare per quasi tutto? E ( s )SDE(s)Supplementare, è diventato chiaro nelle risposte sotto che la varianza è imparziale, ma la sua radice quadrata è distorta. Chiederei che le risposte rispondano alla domanda su quando usare la deviazione standard imparziale.

A quanto pare, una risposta parziale è che per evitare distorsioni nella simulazione sopra, le varianze avrebbero potuto essere mediate piuttosto che i valori SD. Per vedere l'effetto di questo, se quadriamo la colonna SD sopra, e in media quei valori otteniamo 0.9994, la cui radice quadrata è una stima della deviazione standard 0.9996915 e l'errore per il quale è solo 0.0006 per la coda del 2,5% e -0.0006 per la coda del 95%. Si noti che ciò è dovuto al fatto che le varianze sono additive, quindi la media delle stesse è una procedura a basso errore. Tuttavia, le deviazioni standard sono distorte e in quei casi in cui non abbiamo il lusso di usare le varianze come intermediario, abbiamo ancora bisogno di piccole correzioni numeriche. Anche se possiamo usare la varianza come intermediario, in questo caso pern=100, la piccola correzione del campione suggerisce di moltiplicare la radice quadrata della varianza imparziale 0,9996915 per 1,002528401 per fornire 1,002219148 come stima imparziale della deviazione standard. Quindi, sì, possiamo ritardare l'uso della correzione di piccoli numeri, ma dovremmo quindi ignorarla del tutto?

La domanda qui è quando dovremmo usare la correzione di piccoli numeri, invece di ignorarne l'uso e, soprattutto, abbiamo evitato il suo uso.

Ecco un altro esempio, il numero minimo di punti nello spazio per stabilire una tendenza lineare che presenta un errore è tre. Se adattiamo questi punti con minimi quadrati ordinari, il risultato per molti di questi adattamenti è un modello residuo normale piegato se c'è non linearità e mezzo normale se c'è linearità. Nel caso semi-normale la nostra media di distribuzione richiede una piccola correzione numerica. Se proviamo lo stesso trucco con 4 o più punti, la distribuzione non sarà generalmente normale o facile da caratterizzare. Possiamo usare la varianza per combinare in qualche modo quei risultati a 3 punti? Forse, forse no. Tuttavia, è più facile concepire problemi in termini di distanze e vettori.


I commenti non sono per una discussione estesa; questa conversazione è stata spostata in chat .
whuber

3
Q1: vedi il teorema di Lehmann-Scheffe.
Scortchi - Ripristina Monica

1
La distorsione diversa da zero di uno stimatore non è necessariamente uno svantaggio. Ad esempio, se desideriamo avere uno stimatore accurato in perdita quadrata, siamo disposti a indurre una distorsione a condizione che riduca la varianza di una quantità sufficientemente grande. Questo è il motivo per cui gli stimatori (di parte) regolarizzati possono avere prestazioni migliori rispetto allo stimatore (imparziale) OLS in un modello di regressione lineare, ad esempio.
Richard Hardy,

3
@Carl molti termini sono usati in modo diverso nelle diverse aree di applicazione. Se pubblichi un post in un gruppo di statistiche e usi un termine gergale come "bias", si presumerà naturalmente che tu stia utilizzando il significato (i) specifico (i) del termine particolare per le statistiche. Se vuoi dire niente altro, è essenziale per utilizzare un termine diverso o di definire chiaramente ciò che si fa media dal termine giusto al primo utilizzo.
Glen_b -Restate Monica

2
"parzialità" è certamente un termine di gergo - parole speciali o espressioni usate da una professione o da un gruppo che sono difficili da capire per gli altri sembrano praticamente "parzialità". È perché tali termini hanno definizioni precise e specializzate nelle loro aree di applicazione (comprese le definizioni matematiche) che li rende termini gergali.
Glen_b

Risposte:


34

Per la domanda più riservata

Perché viene generalmente utilizzata una formula di deviazione standard distorta?

la semplice risposta

Perché lo stimatore di varianza associato è imparziale. Non esiste una vera giustificazione matematica / statistica.

può essere accurato in molti casi.

Tuttavia, non è sempre necessariamente così. Ci sono almeno due aspetti importanti di questi problemi che dovrebbero essere compresi.

Innanzitutto, la varianza del campione non è solo imparziale per le variabili casuali gaussiane. È imparziale per qualsiasi distribuzione con varianza finita (come discusso di seguito, nella mia risposta originale). La domanda nota che non è imparziale per e suggerisce un'alternativa che è imparziale per una variabile casuale gaussiana. Tuttavia è importante notare che a differenza della varianza, per la deviazione standard è non possibile avere un "libero distribuzione" stimatore (* vedi nota sotto).σ 2 s σs2σ2sσ

In secondo luogo, come menzionato nel commento di Whuber, il fatto che sia di parte non influisce sul "test t" standard. In primo luogo, per una variabile gaussiana , se stimiamo i punteggi z da un campione come quindi questi saranno distorti.x { x i } z i = x i - μsx{xi}

zi=xiμσxix¯s

Tuttavia, la statistica t viene generalmente utilizzata nel contesto della distribuzione campionaria di . In questo caso il punteggio z sarebbe sebbene non possiamo calcolare né né , poiché non conosciamo . Tuttavia, se la statistica sarebbe normale, allora la statistica seguirà una distribuzione Student-t . Questa non è una larga approssimazione. L'unico presupposto è che i campioni siano i gaussiani. z ˉ x = ˉ x -μx¯ztμz ˉ x tnx

zx¯=x¯μσx¯x¯μs/n=t
ztμzx¯tnx

(Comunemente il test t viene applicato in modo più ampio per possibili non gaussiani . Questo si basa su large- , che dal teorema del limite centrale assicura che sarà ancora gaussiano.)n ˉ xxnx¯


* Chiarimento su "stimatore imparziale privo di distribuzione"

Per "distribuzione gratuita", intendo che lo stimatore non può dipendere da alcuna informazione sulla popolazione parte il campione . Per "imparziale" intendo che l'errore previsto è uniformemente zero, indipendentemente dalla dimensione del campione . (A differenza di uno stimatore che è semplicemente asintoticamente imparziale, noto anche come " coerente ", per il quale la distorsione svanisce come .){ x 1 , ... , x n } E [ θ n ] - θ n n x{x1,,xn}E[θ^n]θnn

Nei commenti questo è stato fornito come un possibile esempio di "stimatore imparziale privo di distribuzione". Riassumendo un po ', questo stimatore ha la forma , dove è la curtosi in eccesso di . Questo stimatore non è "privo di distribuzione", poiché dipende dalla distribuzione di . Si dice che lo stimatore soddisfi , dove è la varianza di . Quindi lo stimatore è coerente, ma non (assolutamente) "imparziale", comeκxxκxxE[ σ ]-σx=O[1σ^=f[s,n,κx]κxxκxxσ 2 x xO[1E[σ^]σx=O[1n]σx2xnO[1n]può essere arbitrariamente grande per i piccoli .n


Nota: di seguito è la mia "risposta" originale. Da qui in poi, i commenti riguardano la media e la varianza standard del "campione", che sono stimatori imparziali "liberi dalla distribuzione" (cioè la popolazione non è considerata gaussiana).

Questa non è una risposta completa, ma piuttosto un chiarimento sul perché la formula di varianza del campione è comunemente usata.

Dato un campione casuale , purché le variabili abbiano una media comune, lo stimatore sarà imparziale , cioè ˉ x = 1{x1,,xn}E[xi]=μx¯=1nixi

E[xi]=μE[x¯]=μ

Se anche le variabili hanno una varianza finita comune e non sono correlate , anche lo stimatore sarà anche imparziale, ie Nota che l'imparzialità di questi stimatori dipende solo dai presupposti di cui sopra (e dalla linearità delle aspettative; la dimostrazione è solo algebra). Il risultato non dipende da alcuna distribuzione particolare, come quella gaussiana. Le variabili non non avere una distribuzione comune, e non hanno nemmeno bisogno di essereE[xixj]-μ2={ σ 2 i = j 0 i js2=1n1i(xix¯)2x i

E[xixj]μ2={σ2i=j0ijE[s2]=σ2
xiindipendente (cioè il campione non deve essere iid ).

La "deviazione standard del campione" è non uno stimatore, , ma ciò nonostante è comunemente usato. La mia ipotesi è che questo è semplicemente perché è la radice quadrata della varianza del campione imparziale. (Senza giustificazioni più sofisticate.)sσssσ

Nel caso di un campione gaussiano iid, le stime di massima verosimiglianza (MLE) dei parametri sono e , ovvero la varianza si divide per anziché per . Inoltre, nel caso iid gaussiano, la deviazione standard MLE è solo la radice quadrata della varianza MLE. Tuttavia, queste formule, così come quella accennata nella tua domanda, dipendono dal presupposto dell'Io gaussiano. ( σ 2)MLE=n-1μ^MLE=x¯nn2(σ^2)MLE=n1ns2nn2


Aggiornamento: chiarimenti aggiuntivi su "parziale" rispetto a "imparziale".

Prendi in considerazione un campione element come sopra, , con somma-deviazione quadrata Dati i presupposti delineati nella prima parte sopra, abbiamo necessariamente quindi lo stimatore MLE (gaussiano) è distorto mentre lo stimatore "varianza campione" è imparziale X = { x 1 , , x n } δ 2 n = i ( x i - ˉ x ) 2 E [ δ 2 n ] = ( n - 1 ) σ 2 ^ σ 2 n = 1nX={x1,,xn}

δn2=i(xix¯)2
E[δn2]=(n1)σ2
s 2 n =1
σn2^=1nδn2E[σn2^]=n1nσ2
sn2=1n1δn2E[sn2]=σ2

Ora è vero che diventa meno distorto all'aumentare della dimensione del campione . Tuttavia ha zero bias, indipendentemente dalla dimensione del campione (purché ). Per entrambi gli stimatori, la varianza della loro distribuzione campionaria sarà diversa da zero e dipenderà da . ns 2 n n>1nσn2^nsn2n>1n

Ad esempio, il codice Matlab di seguito considera un esperimento con campioni da una popolazione normale normale . Per stimare le distribuzioni di campionamento per , l'esperimento viene ripetuto volte. (Puoi tagliare e incollare il codice qui per provarlo tu stesso.)z ˉ x , ^ σ 2 , s 2 N = 10 6n=2zx¯,σ2^,s2N=106

% n=sample size, N=number of samples
n=2; N=1e6;
% generate standard-normal random #'s
z=randn(n,N); % i.e. mu=0, sigma=1
% compute sample stats (Gaussian MLE)
zbar=sum(z)/n; zvar_mle=sum((z-zbar).^2)/n;
% compute ensemble stats (sampling-pdf means)
zbar_avg=sum(zbar)/N, zvar_mle_avg=sum(zvar_mle)/N
% compute unbiased variance
zvar_avg=zvar_mle_avg*n/(n-1)

L'output tipico è simile

zbar_avg     =  1.4442e-04
zvar_mle_avg =  0.49988
zvar_avg     =  0.99977

confermando che

E[z¯](z¯)¯μ=0E[s2](s2)¯σ2=1E[σ2^](σ2^)¯n1nσ2=12

Aggiornamento 2: Nota sulla natura fondamentalmente "algebrica" ​​dell'imparzialità.

Nella dimostrazione numerica sopra, il codice approssima la vera aspettativa usando una media ensemble con repliche dell'esperimento (ovvero ognuna è un campione di dimensione ). Anche con questo numero elevato, i risultati tipici citati sopra sono tutt'altro che esatti.E[]N=106n=2

Per dimostrare numericamente che gli stimatori sono veramente imparziali, possiamo usare un semplice trucco per approssimare il caso : aggiungi semplicemente la seguente riga al codiceN

% optional: "whiten" data (ensure exact ensemble stats)
[U,S,V]=svd(z-mean(z,2),'econ'); z=sqrt(N)*U*V';

(posizionando dopo "genera # casuali normali normali" e prima di "calcola statistiche campione")

Con questa semplice modifica, anche eseguendo il codice con ottengono risultati similiN=10

zbar_avg     =  1.1102e-17
zvar_mle_avg =  0.50000
zvar_avg     =  1.00000

3
@amoeba Bene, mangerò il mio cappello. Ho quadrato i valori SD in ciascuna riga, quindi li ho calcolati in media e ne risultano imparziali (0.9994), mentre i valori SD stessi non lo fanno. Ciò significa che tu e GeoMatt22 avete ragione e io ho torto.
Carl,

2
@Carl: In genere è vero che la trasformazione di uno stimatore imparziale di un parametro non fornisce una stima imparziale del parametro trasformato, tranne quando la trasformazione è affine, a seguito della linearità delle aspettative. Quindi, in che misura l'imparzialità è importante per te?
Scortchi - Ripristina Monica

4
Carl: Mi scuso se ritieni che la mia risposta sia stata ortogonale alla tua domanda. Si intendeva fornire una spiegazione plausibile di Q: "perché viene generalmente utilizzata una formula di deviazione standard distorta?" A: "semplicemente perché lo stimatore di varianza associato è imparziale, rispetto a qualsiasi reale giustificazione matematica / statistica ". Per quanto riguarda il tuo commento, in genere "imparziale" descrive uno stimatore il cui valore atteso è corretto indipendentemente dalla dimensione del campione. Se è imparziale solo nel limite della dimensione infinita del campione, in genere sarebbe chiamato " coerente ".
GeoMatt22

3
(+1) Bella risposta. Piccolo avvertimento: il passaggio di Wikipedia sulla coerenza citato in questa risposta è un po 'un casino e l'affermazione tra parentesi fatta in merito è potenzialmente fuorviante. "Coerenza" e "imparzialità asintotica" sono in un certo senso proprietà ortogonali di uno stimatore. Per un po 'di più su questo punto, vedi il thread dei commenti a questa risposta .
cardinale il

3
+1, ma penso che @Scortchi faccia un punto molto importante nella sua risposta che non è menzionato nella tua: vale a dire che anche per la popolazione gaussiana, la stima imparziale di ha un errore atteso più elevato rispetto alla stima distorta standard di (dovuta alla grande varianza della prima). Questo è un argomento forte a favore del non usare uno stimatore imparziale anche se si sa che la distribuzione sottostante è gaussiana. σσ
ameba dice di reintegrare Monica il

15

S=Σ(X-X¯)2n-1σσK

(n-1)K22K2Γ(n-12)Γ(n+K-12)SK=SKcK

σσk

σ~jk=(Sjcj)kj

j=k

Eσ~jkσk=(ckcjkj1)σk

e la sua varianza di

Varσ~jk=Eσ~j2k(Eσ~jk)2=c2kck2cj2kjσ2k

σσ~11=Sc1σ~21=Sσ~1σ~2

Eσ~1σ=0Eσ~2σ=(c11)σVarσ~1=Eσ~12-(Eσ~11)2=c2-c12c12σ2=(1c12-1)σ2Varσ~2=Eσ~12-(Eσ~2)2=c2-c12c2σ2=(1-c12)σ2
c2=1S2σ2

Tracciare i contributi di bias e varianza a MSE a dimensioni del campione da uno a 20 per i due stimatori

un'KSKσ2

(EakSkσk)2+E(akSk)2(EakSk)2=[(akck1)2+ak2c2kak2ck2]σ2k=(ak2c2k2akck+1)σ2k

e quindi minimizzato quando

ak=ckc2k

, consentendo la definizione di un'altra serie di stimatori di potenziale interesse:

σ^jk=(cjSjc2j)kj

σ^11=c1SSSσk(95)k

σ~jkσ^jk n1nSn1χn12(0.5)Seσn=2(n1)s2χn12(α)(n1)s2χn12(1α)1α

distribuzione della confidenza per $ \ sigma $ che mostra le stime

(0.45s,31.9s).) Non ha senso essere pignoli sulle proprietà di uno stimatore di punti a meno che non si sia preparati a essere abbastanza espliciti su ciò per cui si desidera utilizzarlo, in modo più esplicito è possibile definire una funzione di perdita personalizzata per una particolare applicazione. Un motivo per cui potresti preferire uno stimatore esattamente (o quasi) imparziale è che lo userai nei calcoli successivi durante i quali non vuoi accumulare errori: la tua illustrazione delle stime distorte della media della deviazione standard è un semplice esempio di tale (un esempio più complesso potrebbe usarli come risposta in una regressione lineare). In linea di principio un modello onnicomprensivo dovrebbe ovviare alla necessità di stime imparziali come passaggio intermedio, ma potrebbe essere notevolmente più difficile da specificare e adattare.

σ


7

Q2: Qualcuno potrebbe spiegarmi perché stiamo usando SD comunque in quanto è chiaramente distorto e fuorviante?

Questo è emerso a parte nei commenti, ma penso che valga la pena ripetere perché è il punto cruciale della risposta:

La formula della varianza del campione è imparziale e le varianze sono additive . Quindi, se ti aspetti di fare qualsiasi trasformazione (affine), questo è un serio motivo statistico per cui dovresti insistere su uno stimatore di varianza "piacevole" su uno stimatore SD "piacevole".

In un mondo ideale, sarebbero equivalenti. Ma questo non è vero in questo universo. Devi sceglierne uno, quindi potresti anche scegliere quello che ti consente di combinare le informazioni lungo la strada.

Confronto tra due campioni significa? La varianza della loro differenza è la somma delle loro varianze.
Fare un contrasto lineare con diversi termini? Ottieni la sua varianza prendendo una combinazione lineare delle loro varianze.
Guardando la linea di regressione si adatta? Ottieni la loro varianza usando la matrice varianza-covarianza dei tuoi coefficienti beta stimati.
Usando i test F, i test t o gli intervalli di confidenza basati su t? Il test F richiede variazioni direttamente; e il test t è esattamente equivalente alla radice quadrata di un test F.

In ciascuno di questi scenari comuni, se inizi con varianze imparziali, rimarrai sempre imparziale (a meno che il tuo passaggio finale non si converta in SD per il reporting).
Nel frattempo, se avessi iniziato con SD imparziali, né i tuoi passaggi intermedi né il risultato finale sarebbero comunque imparziali .


La varianza non è una misurazione della distanza e la deviazione standard lo è. Sì, le distanze vettoriali vengono aggiunte dai quadrati, ma la misura principale è la distanza. La domanda era: a che cosa serviresti per utilizzare la distanza corretta e non perché dovremmo ignorare la distanza come se non esistesse.
Carl

Bene, immagino di sostenere che "la misurazione primaria è la distanza" non è necessariamente vera. 1) Hai un metodo per lavorare con varianze imparziali; combinali; prendere la varianza finale risultante; e ridimensionare il suo sqrt per ottenere una SD imparziale? Bene, allora fallo. Se no ... 2) Che cosa hai intenzione di fare con una SD da un piccolo campione? Segnalalo da solo? Meglio tracciare direttamente i punti dati direttamente, non riassumere la loro diffusione. E come lo interpreteranno le persone, oltre che come input per gli ES e quindi gli EC? È significativo come input per gli elementi della configurazione, ma preferirei il CI basato su t (con la solita SD).
Civilstat,

n<25

"quindi potresti anche scegliere quello che ti consente di combinare le informazioni lungo la strada" e "la misurazione principale è la distanza" non è necessariamente vera. La casa del contadino Jo è di 640 acri in fondo alla strada? Uno usa correttamente la misura appropriata per ogni situazione, oppure ha una tolleranza più alta per i falsi testimoni di me. La mia unica domanda qui è quando usare cosa, e la risposta non è "mai".
Carl,

1

Questo post è in forma di contorno.

(1) Prendere una radice quadrata non è una trasformazione affine (Credit @Scortchi.)

vun'r(S)=E(S2)-E(S)2E(S)=E(S2)-vun'r(S)vun'r(S)

var(s)=Σi=1n(xix¯)2n1E(s)=Γ(n12)Γ(n2)Σi=1n(xix¯)22Σi=1n(xix¯)2n1=var(s)

var(s)E(s)n

var(s)E(s)

x¯αtdf=1t1df2var(s)var(s)σ^=1n1.514γ2i=1n(xix¯)2

γ2df=1

Per il normale caso di distribuzione:

var(s)E(s)

n25E(s)tX¯μvar(n)/ntn1σnE(s)var(n)E(s)


2
A2 non è corretto: a seguito di tale prescrizione si verificherebbero test dimostrabilmente non validi. Come ho commentato alla domanda, forse in modo troppo sottile: consultare qualsiasi resoconto teorico di un test classico, come il test t, per capire perché una correzione del bias è irrilevante.
whuber

2
C'è un forte meta-argomento che mostra perché la correzione del bias per i test statistici è un'aringa rossa: se non fosse corretto non includere un fattore di correzione del bias, quel fattore sarebbe già incluso nelle tabelle standard della distribuzione t Student, distribuzione F, ecc. In altre parole: se mi sbaglio, allora tutti hanno sbagliato sui test statistici nell'ultimo secolo.
whuber

1
E(s)Γ(n12)Γ(n2)Σi=1n(xix¯)22s

2
sE(s)sE(s)σ^s/ααE[s]/σ). Se arriviamo a una risposta soddisfacente per questa domanda, probabilmente una ripulitura della domanda e della notazione di risposta sarebbe giustificata :)
GeoMatt22

2
σ

0

Voglio aggiungere la risposta bayesiana a questa discussione. Solo perché il tuo presupposto è che i dati sono generati secondo una media normale con varianza e varianza sconosciute, ciò non significa che dovresti riassumere i tuoi dati usando una media e una varianza. L'intero problema può essere evitato se si disegna il modello, che avrà una previsione posteriore che è una distribuzione T di uno studente in scala non centrale a tre parametri. I tre parametri sono il totale dei campioni, il totale dei campioni quadrati e il numero di campioni. (O qualsiasi mappa biiettiva di questi.)

Per inciso, mi piace la risposta di Civilstat perché evidenzia il nostro desiderio di combinare informazioni. Le tre statistiche sufficienti sopra sono persino migliori delle due fornite nella domanda (o dalla risposta di Civilstat). Due serie di queste statistiche possono essere facilmente combinate e forniscono la migliore previsione posteriore data l'assunzione della normalità.


In che modo quindi si può calcolare un errore standard imparziale della media da queste tre statistiche sufficienti?
Carl,

nnn1

t

@Carl Le statistiche sufficienti che ho descritto erano la media, il secondo momento e il numero di campioni. I tuoi MLE della normale originale sono la media e la varianza (che è uguale al secondo momento meno la media quadrata). Il numero di campioni è utile quando si desidera fare previsioni su osservazioni future (per le quali è necessaria la distribuzione predittiva posteriore).
Neil G,

σ
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.