Perché usare il bootstrap parametrico?


13

Attualmente sto cercando di capire meglio alcune cose riguardanti il ​​bootstrap parametrico. La maggior parte delle cose sono probabilmente banali, ma penso ancora che potrei essermi perso qualcosa.

Supponiamo che io voglia ottenere intervalli di confidenza per i dati usando una procedura di bootstrap parametrica.

Quindi ho questo campione e presumo che sia normalmente distribuito. Vorrei quindi stimare la varianza v e media m ed ottenere la mia stima della distribuzione P , che è ovviamente solo N ( m , v ) .v^m^P^N(m^,v^)

Invece di campionare da quella distribuzione, potevo semplicemente calcolare analiticamente i quantili ed essere fatto.

a) Concludo: in questo banale caso, il bootstrap parametrico sarebbe lo stesso del calcolo delle cose in un'ipotesi di distribuzione normale?

Quindi teoricamente questo sarebbe il caso di tutti i modelli parametrici di bootstrap, purché io possa gestire i calcoli.

b) Concludo: l'uso del presupposto di una certa distribuzione mi porterà una maggiore precisione nel bootstrap parametrico rispetto a quello non parametrico (se è corretto, ovviamente). Ma a parte questo, lo faccio solo perché non riesco a gestire i calcoli analitici e cerco di simulare la mia via d'uscita?

c) Lo userei anche se i calcoli fossero "di solito" eseguiti usando un po 'di approssimazione perché questo mi darebbe forse più precisione ...?

Per me, il vantaggio del bootstrap (non parametrico) sembrava risiedere nel fatto che non ho bisogno di assumere alcuna distribuzione. Per il bootstrap parametrico quel vantaggio è andato - o ci sono cose che mi sono perso e dove il bootstrap parametrico offre un vantaggio rispetto a quanto menzionato sopra?


1
In pratica, hai ragione: stai scambiando un errore analitico con un errore Monte Carlo. Il bootstrap parametrico è anche un campione posteriore approssimativo.
probabilityislogic

1
intendi campione posteriore approssimativo come in bayesiano? non riesco ancora a stabilire la connessione tra bootstrap e stima della massima verosimiglianza. ma questa è una storia diversa. La ringrazio per la risposta!
BootstrapBill

Risposte:


8

Sì. Hai ragione. Ma Parametric bootstrap protegge i risultati migliori quando le ipotesi valgono. Pensare in questo modo:

X1,,XnFθθ^=h(X1,,Xn)GhFG=G(h,F)FF^GG^=G(h,F^)G^θ^F^

G^=G(h,F^)G^X1b,,XnbF^θ^b=h(X1b,,Xnb) which will follow the G^ distribution.

Once you think of it this way, the advantages of parametric bootstrap are obvious. F^ would be a better approximation of F, then G^ would be closer to G and finally the estimations of θ^'s properties would be better.


1
So if we put it in terms of higher order convergence we see that although parametric and nonparametric bootstrap are of the same order of convergence (i think thats whats written in van der vaarts asymptotic statistics), parametric is still better. but only in terms of some factor?
BootstrapBill
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.