Motivo intuitivo per cui l'informazione Fisher del binomio è inversamente proporzionale a


12

Mi confonde / sbalordisce che il binomio abbia una varianza proporzionale a . Allo stesso modo, le informazioni di Fisher sono proporzionali a . Qual è la ragione di ciò? Perché le informazioni Fisher sono ridotte al minimo a ? Cioè, perché l'inferenza è più difficile a ?1p(1p) p=0,5p=0,51p(1p)p=0.5p=0.5

Contesto:

Sto lavorando su un calcolatore delle dimensioni del campione e la formula per , la dimensione del campione necessaria, è un fattore crescente di , il risultato di una stima della varianza nella derivazione.p ( 1 - p )Np(1p)


3
La varianza di una variabile casuale di Bernoulli con il parametro è e la variabile casuale binomiale, essendo la somma di variabili casuali indipendenti di Bernoulli, ha varianza , che è la somma delle varianze . Per quanto riguarda il motivo per cui , considerare la varianza come il momento di inerzia attorno al centro di massa delle masse e a e . p ( 1 - p ) N N p ( 1 - p ) Npp(1p)NNp(1p)N p 1 - p 1 0p(1p)p1p10
Dilip Sarwate,

Sì, ho detto proporzionale a , ignorare il . Puoi approfondire la tua seconda parte, sembra una prospettiva interessante. Np(1p)N
Cam.Davidson.Pilon

Risposte:


13

Per vedere, in modo intuitivo, che la varianza è massimizzata a , prendere uguale a (risp. ). Quindi un campione da conterrà probabilmente molti (resp. ) e solo alcuni (resp. ). Non c'è molta variazione lì.p 0,99 p = 0,01 X Bernoulli ( p ) 1 0 0 1p=0.5p0.99p=0.01XBernoulli(p)1001


È vero. Forse quello che dovrei chiedere è: Perché le informazioni di Fisher sono minimizzate a ? p=0.5, cioè perché l'inferenza è più difficile a ? Aggiornerò la mia domanda per riflettere ciò. p=0.5
Cam.Davidson.Pilon

3
Ancora una volta in modo molto intuitivo: maggiore è la variazione, più informazioni sono necessarie.
Ocram,

9

L'inferenza è "difficile" per 'nel mezzo, perché un campione con vicino al centro è coerente con un intervallo più ampio di . Vicino alle estremità, non può essere così lontano - perché le estremità sono "barriere" oltre le quali non può andare.p p ppp^pp

Penso che l'intuizione sia più semplice se vista in termini di varianza, però.

L'intuizione sulla varianza di un binomio essendo grande al centro e piccola alle estremità è piuttosto semplice: vicino agli endpoint non c'è spazio per "diffondere" i dati. Considera piccolo - poiché la media è vicina a 0, la variazione non può essere grande - per i dati in media può arrivare solo così lontano dalla media.ppp

Consideriamo la varianza di una proporzione campionaria in una serie di prove di Bernoulli. Qui . Quindi tenendo fisso e variando , la variazione è molto più piccola per vicino a 0:n p pVar(p^)=p(1p)/nnpp

Proporzione del campione in campioni binomiali - qui è solo un'uniforme casuale; la custodia blu ha media 0,03, la media nera 0,5 (alcuni jitter aggiunti in modo che i punti non si accumulino troppo e perdano dettagli) yinserisci qui la descrizione dell'immagine

Le funzioni di probabilità corrispondenti: inserisci qui la descrizione dell'immagine

In ogni caso, prestare attenzione alle linee che indicano la media. Man mano che la linea media diventa più "inceppata" contro la barriera, i punti al di sotto della media possono arrivare solo leggermente in basso.

Di conseguenza, i punti sopra la media non possono in genere andare troppo al di sopra della media (perché altrimenti la media si sposterebbe!). Vicino a gli endpoint non "spingono verso l'alto" proprio come succede quando c'è una barriera lì.p=12

inserisci qui la descrizione dell'immagine

Allo stesso tempo vediamo perché la distribuzione deve essere inclinata alle estremità; affinché la variabile casuale sia anche in qualche momento superiore alla media di più di , è necessario che vi sia un'aumentata probabilità di conseguire una differenza al di sotto della media possibile. Quella barriera incombente a 0 dà sia un limite alla variabilità che porta all'asimmetria. pp^p

[Questa forma di intuizione non ci dice perché prende quell'esatta forma funzionale, ma chiarisce perché la varianza deve essere piccola vicino alle estremità e diventare più piccola più vicina alle estremità che vai.]


Di conseguenza, i punti sopra la media non possono in genere andare troppo al di sopra della media (perché altrimenti la media si sposterebbe!). Vicino a p = 12 gli endpoint non "spingono" verso l'alto nello stesso modo. Troppo perfetto. Questa è un'ottima spiegazione
Cam.Davidson.Pilon

7

Le informazioni di Fisher sono la varianza della funzione di punteggio. Ed è legato all'entropia. Per una prova Bernoulli stiamo ottenendo un po 'per ogni prova. Quindi queste informazioni Fisher hanno proprietà simili a quelle dell'entropia di Shannon, come ci aspetteremmo. In particolare l'entropia ha un massimo a 1/2 e l'informazione ha un minimo a 1/2.


Ah, un'altra grande prospettiva. Non ci avevo pensato dal punto di vista entropico!
Cam.Davidson.Pilon
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.