L'uso delle funzioni di densità di probabilità nei calcoli. In altre parole, come valutare tali equazioni.
Penso che stai ancora pensando a questo da una prospettiva frequentista: se stai cercando una stima puntuale, il posteriore non te la darà. Inserisci i PDF, ottieni i PDF. Puoi ricavare stime puntuali calcolando le statistiche dalla tua distribuzione posteriore, ma ci arriveremo un po '.
Capisco il concetto di priori vs posteriori e capisco come applicarli usando una tabella manualmente. Capisco (penso!) Che pi rappresenti la presunta proporzione o probabilità della popolazione.
π( x ) è la stessa cosa di : sono entrambi PDF. è solo convenzionalmente usato per indicare che il particolare PDF è una densità precedente.p ( x )π
Ho il sospetto che non ottieni preti e posteri così come pensi di fare, quindi torniamo al fondamento fondamentale delle statistiche bayesiane: Probabilità soggettiva .
Un esperimento di pensiero sulla probabilità soggettiva
Diciamo che ti presento una moneta e ti chiedo se pensi che questa moneta sia o meno una moneta giusta. Hai sentito molte persone parlare di monete ingiuste nella classe di probabilità, ma in realtà non ne hai mai visto uno nella vita reale, quindi rispondi, "Sì, certo, penso che sia una moneta giusta." Ma il fatto che ti stia anche ponendo questa domanda ti scoraggia un po ', quindi anche se la tua stima è giusta, non ti sorprenderebbe davvero se non lo fosse. Molto meno sorpreso che se avessi trovato questa moneta nel tuo cambio di tasca (perché presumi che sia tutta vera valuta, e non ti fidi davvero di me in questo momento perché sto agendo in modo sospetto).
Ora eseguiamo alcuni esperimenti. Dopo 100 lanci, la moneta restituisce 53 teste. Sei molto più sicuro che sia una moneta giusta, ma sei ancora aperto alla possibilità che non lo sia. La differenza è che ora saresti piuttosto sorpreso se questa moneta risultasse avere una sorta di pregiudizio.
Come possiamo rappresentare qui le tue convinzioni precedenti e posteriori, in particolare, riguardo alla probabilità che la moneta mostrerà teste (che indicheremo )? In un ambiente frequentista, la tua precedente convinzione - la tua ipotesi nulla - è che θ = 0,5 . Dopo aver eseguito l'esperimento, non sei in grado di rifiutare il valore nullo, quindi continui con l'assunto che sì, la moneta è probabilmente giusta. Ma come possiamo incapsulare il cambiamento nella tua sicurezza che la moneta sia giusta? Dopo l'esperimento sei nella posizione in cui potresti scommettere che la moneta è giusta, ma prima dell'esperimento saresti stato trepidante.θθ = 0,5
Nell'impostazione bayesiana, incapsuli la tua fiducia nelle proposizioni non trattando le probabilità come valori scalari ma come variabili casuali, cioè funzioni. Invece di dire diciamo θ ∼ N ( 0,5 , σ 2 ) , e quindi incapsuliamo la nostra fiducia nella varianza del PDF. Se impostiamo una varianza elevata, stiamo dicendo: "Penso che la probabilità sia 0,5, ma non sarei sorpreso se la probabilità che effettivamente osservo nel mondo è molto lontana da questo valore. Penso che θ = 0,5θ = 0,5θ ∼ N( 0,5 , σ2)θ = 0,5, ma francamente non ne sono così sicuro. "Impostando una varianza bassa, stiamo dicendo:" Non solo credo che la probabilità sia 0,5, ma sarei molto sorpreso se la sperimentazione fornisca un valore non molto vicino a . "Quindi, in questo esempio quando inizi l'esperimento hai un precedente con elevata varianza. Dopo aver ricevuto i dati che confermano il tuo precedente, la media del precedente è rimasta la stessa, ma la varianza è diventata molto più ridotta. La nostra fiducia che θ = 0,5 è molto più alto dopo aver eseguito l'esperimento rispetto a prima.θ = 0,5θ = 0,5
Quindi, come eseguiamo i calcoli?
Iniziamo con i PDF e finiamo con i PDF. Quando è necessario riportare una stima puntuale, è possibile calcolare statistiche come la media, la mediana o la modalità della distribuzione posteriore (a seconda della funzione di perdita, che non tratterò ora. Concentriamoci solo sulla media). Se hai una soluzione in formato chiuso per il tuo PDF, sarà probabilmente banale determinare questi valori. Se il posteriore è complicato, puoi usare procedure come MCMC per campionare dal tuo posteriore e ricavare statistiche dal campione che hai disegnato.
Nell'esempio in cui hai un beta precedente e una probabilità binomiale, il calcolo del posteriore si riduce a un calcolo molto pulito. Dato:
- θ ∼ B e t a ( α , β)
- X| θ∼Binomial(θ)
Quindi il posteriore si riduce a:
- θ | X∼ B e t a ( α + ∑ni = 1Xio,β+ n - ∑ni = 1Xio)
Questo accadrà ogni volta che hai un beta precedente e una probabilità binomiale e il motivo per cui dovrebbe essere evidente nei calcoli forniti da DJE . Quando un particolare modello di probabilità precedente dà sempre un posteriore che ha lo stesso tipo di distribuzione del precedente, la relazione tra i tipi di distribuzioni utilizzate per il precedente e la probabilità è chiamata Coniugato . Esistono molte coppie di distribuzioni che hanno relazioni coniugate e la coniugazione è molto frequentemente sfruttata dai bayesiani per semplificare i calcoli. Data una particolare probabilità, puoi rendere la tua vita molto più semplice selezionando un coniugato precedente (se ne esiste uno e puoi giustificare la tua scelta del precedente).
Credo che beta (1,1) si riferisca a un PDF in cui la media è 1 e lo stdev è 1?
Nella parametrizzazione comune della distribuzione normale, i due parametri indicano la deviazione media e standard della distribuzione. Ma è così che parametrizziamo la distribuzione normale. Altre distribuzioni di probabilità sono parametrizzate in modo molto diverso.
B e t a ( α , β)αβ
XE[ X]var[ X]∼ B e t a ( α , β)= αα + β= α β( α + β)2( α + β+ 1 )
Come puoi vedere chiaramente, la media e la varianza non fanno parte della parametrizzazione di questa distribuzione, ma hanno soluzioni in forma chiusa che sono semplici funzioni dei parametri di input.
B e t a ( 1 , 1 )Un i fo r m ( 0 , 1 )