In che modo un precedente uniforme porta alle stesse stime dalla massima probabilità e modalità del posteriore?


9

Sto studiando diversi metodi di stima puntuale e leggo che quando si utilizzano stime MAP vs ML, quando si usa un "precedente uniforme", le stime sono identiche. Qualcuno può spiegare cos'è un precedente "uniforme" e fornire alcuni (semplici) esempi di quando gli stimatori MAP e ML sarebbero gli stessi?


4
@AndreSilva MAP = Maximum a posteriori - the mode of the
rear

Risposte:


10

È una distribuzione uniforme (continua o discreta).

Guarda anche

http://en.wikipedia.org/wiki/Point_estimation#Bayesian_point-estimation

e

http://en.wikipedia.org/wiki/Maximum_a_posteriori_estimation#Description

Se si utilizza un'uniforme precedente su un set che contiene l'MLE, MAP = MLE sempre. La ragione di ciò è che sotto questa struttura precedente, la distribuzione posteriore e la probabilità sono proporzionali.


2
Questa è una buona risposta secondo me. Potrebbe valere la pena aggiungere che la ragione per cui la distribuzione posteriore e la probabilità sono proporzionali è che la distribuzione posteriore è essa stessa proporzionale al prodotto della probabilità e del precedente. Quando il priore assume lo stesso valore ovunque, come nella distribuzione uniforme, allora la distribuzione posteriore è semplicemente proporzionale alla probabilità.
TooTone

1
@TooTone Vorrei anche aggiungere un punto sull'impropria.
Stéphane Laurent,

Il precedente uniforme può essere considerato come un dato impostato dall'utente o una probabilità uguale per ogni classe che si sta tentando di prevedere. Ad esempio, se abbiamo un problema di due classi e la distribuzione per esempi positivi è del 10% (ovvero una probabilità precedente di 0,1), possiamo impostare l'uniforme precedente per i casi positivi su 0,5 al fine di superare l'effetto di squilibrio dell'originale distribuzione.
soufanom,

2
Da notare, sotto l'uniforme precedente MAP e ML si scontrano solo se l'uniforme precedente è in tutto i valori validi del parametro. Vale a dire se il parametro è continuo e il precedente è uniforme solo a [0, 1] non si terrà.
Royi,

@Drazick: buona osservazione. In realtà è "peggio" di così, vale a dire il (valore del) MAP dipende dalla scelta della misura dominante, come spiegato in questo documento di Druihlet e Marin .
Xi'an,

1

MLE è la stima dell'occorrenza di un determinato evento dato un parametro, mentre MAP è la stima di un parametro dato un evento. Quando usiamo ulteriormente il teorema di Bayes mentre stimiamo MAP, si riduce a dove è l'unico termine aggiuntivo rispetto a MLE. La stima della media e della varianza di MAP sarà la stessa della stima della media e della varianza di MLE poiché Prior rimane sempre la stessa e non cambia affatto. Quindi agisce solo come una costante e quindi non svolge alcun ruolo nell'influenzare il valore della media e della varianza.P ( θ )P(D|θ)P(θ)P(θ)


(-1) La stima della massima verosimiglianza (di un parametro) è una stima di un parametro, non "la stima dell'occorrenza di un determinato evento". Anche il resto della risposta è alquanto confuso / confuso, ad esempio non è chiaro a cosa si riferiscano "media e varianza".
Juho Kokkala,

@ Tim, puoi fornire una prova (o schema) che mostra The mean and variance estimate of MAP will be same as mean and variance estimate of MLE? Grazie
curious_dan il

p(θ|X)p(X|θ)p(θ)p(θ)1p(θ|X)p(X|θ)×1

grazie @Tim --- Vedo perché questo è vero per il valore massimo / previsto, ma non è chiaro per me la varianza sarà la stessa
curious_dan

@curious_dan varianza di cosa? Questo vale per qualsiasi parametro stimato.
Tim
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.