Perché lo stimatore James-Stein è chiamato stimatore del "restringimento"?


19

Ho letto dello stimatore di James-Stein. È definito, in queste note , come

θ^=(1-p-2X2)X

Ho letto la prova ma non capisco la seguente dichiarazione:

Dal punto di vista geometrico, lo stimatore di James-Stein riduce ogni componente di X verso l'origine ...

Che cosa significa esattamente "restringe ogni componente di X verso l'origine"? Stavo pensando a qualcosa come

θ^-02<X-02,
che è vero in questo caso fintanto che (p+2)<X2 , poiché
θ^=X2-(p+2)X2X.

È questo ciò che le persone intendono quando dicono "ridursi verso zero" perché, nel senso della norma L2 , lo stimatore JS è più vicino a zero di X ?

Aggiornamento dal 22/09/2017 : oggi mi sono reso conto che forse sto complicando troppo le cose. Sembra che la gente significhi davvero che una volta moltiplicato X per qualcosa che è più piccolo di 1 , vale a dire il termine X2-(p+2)X2 , ogni componente di X sarà più piccolo di prima.

Risposte:


31

Un'immagine a volte vale più di mille parole, quindi permettetemi di condividerne una con voi. Di seguito puoi vedere un'illustrazione che proviene dal paradosso di Stein sulla statistica di Bradley Efron (1977) . Come puoi vedere, ciò che fa lo stimatore di Stein è avvicinare ciascuno dei valori alla media generale. Rende i valori maggiori della media generale più piccoli e i valori più piccoli della media generale, più grandi. Per restringimento intendiamo spostare i valori verso la media , o verso lo zero in alcuni casi - come la regressione regolarizzata - che riduce i parametri verso lo zero.

Illustrazione dello stimatore di Stein da Efron (1977)

Naturalmente, non si tratta solo di ridursi, ma ciò che Stein (1956) e James e Stein (1961) hanno dimostrato è che lo stimatore di Stein domina lo stimatore di massima verosimiglianza in termini di errore al quadrato totale,

Eμ(μ^JS-μ2)<Eμ(μ^MLE-μ2)

dove , è lo stimatore di Stein e , dove entrambi gli stimatori sono stimati sul campione . Le prove sono riportate nei documenti originali e nell'appendice del documento a cui si fa riferimento. In parole povere , ciò che hanno dimostrato è che se fai simultaneamente ipotesi, quindi in termini di errore al quadrato totale, faresti meglio a ridurle, rispetto ad attenersi alle tue ipotesi iniziali.μ=(μ1,μ2,...,μp)'μ^ioJSμ^ioMLE=XioX1,X2,...,Xpp>2

Infine, lo stimatore di Stein non è certamente l'unico stimatore che dà l'effetto di restringimento. Per altri esempi, è possibile controllare questo post di blog o il libro di analisi dei dati bayesiani di riferimento di Gelman et al. Puoi anche controllare i thread sulla regressione regolarizzata, ad es. Quale problema risolvono i metodi di contrazione? o quando utilizzare i metodi di regolarizzazione per la regressione? , per altre applicazioni pratiche di questo effetto.


L'articolo sembra utile e lo leggerò. Ho aggiornato la mia domanda per spiegare ulteriormente i miei pensieri. Potresti dare un'occhiata? Grazie!
3x89g2

2
@Tim Penso che l'argomento Misakov sia legittimo in quanto lo stimatore James-Stein porta lo stimatore di più vicino a zero rispetto al MLE. Zero ha un ruolo centrale e centrale in questo stimatore e gli stimatori di James-Stein possono essere costruiti che si restringono verso altri centri o addirittura sottospazi (come in George, 1986). Ad esempio, Efron e Morris (1973) si restringono verso la media comune, che equivale al sottospazio diagonale. θ
Xi'an,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.