In questo caso, puoi considerare un'approssimazione ABC della probabilità (e di conseguenza dell'MLE ) in base al seguente presupposto / restrizione:
Assunzione. La dimensione del campione originale n è nota.
Questo non è un presupposto selvaggio dato che la qualità, in termini di convergenza, degli stimatori frequentisti dipende dalla dimensione del campione, quindi non si possono ottenere stimatori arbitrariamente buoni senza conoscere la dimensione del campione originale.
L'idea è di generare un campione dalla distribuzione posteriore di θ e, al fine di produrre un'approssimazione dell'MLE , è possibile utilizzare un'importante tecnica di campionamento come in [1] o considerare un'uniforme prima di θ con supporto su un adeguato impostato come in [2] .
Descriverò il metodo in [2]. Prima di tutto, lasciami descrivere il campionatore ABC.
Campionatore ABC
Sia f(⋅|θ) il modello che genera il campione in cui θ∈Θ è un parametro (da stimare), T è una statistica (una funzione del campione) e T0 è la statistica osservata, nel gergo ABC questa è chiamata statistica riassuntiva , ρ sia una metrica, π(θ) una distribuzione precedente su θ e ϵ>0 una tolleranza. Quindi, il campionatore di rifiuto dell'ABC può essere implementato come segue.
- Campione θ∗ da π(⋅) .
- Genera un campione di dimensione n dal modello .xnf(⋅|θ∗)
- Calcola .T∗=T(x)
- Se , accetta θ ∗ come simulazione dal retro di θ .ρ(T∗,T0)<ϵθ∗θ
Questo algoritmo genera un campione approssimativo dalla distribuzione posteriore di dato T ( x ) = T 0 . Pertanto, lo scenario migliore è quando la statistica T è sufficiente ma è possibile utilizzare altre statistiche. Per una descrizione più dettagliata di questo vedi questo documento .θT(x)=T0T
Ora, in un quadro generale, se si usa un'uniforme precedente che contiene l'MLE nel suo supporto, allora il Maximum a posteriori (MAP) coincide con il Maximum Likelihood Estimator (MLE). Pertanto, se si considera un'uniforme appropriata prima del campionatore ABC, è possibile generare un campione approssimativo di una distribuzione posteriore il cui MAP coincide con l'MLE. Il passaggio rimanente consiste nella stima di questa modalità. Questo problema è stato discusso nel CV, ad esempio in "Stima computazionalmente efficiente della modalità multivariata" .
Un esempio di giocattolo
Let sia un campione da un N ( μ , 1 ), e supponiamo che le uniche informazioni disponibili da questo campione è ˉ x = 1(x1,...,xn)N(μ,1). Siaρla metrica euclidea inReϵ=0,001. Il seguente codice R mostra come ottenere un MLE approssimativo usando i metodi sopra descritti usando un campione simulato conn=100eμ=0, un campione della distribuzione posteriore di dimensione1000, un'uniforme precedente perμon(-0,3,0,3)e uno stimatore della densità del kernel per la stima della modalità del campione posteriore (MAP = MLE).x¯=1n∑nj=1xjρRϵ=0.001n=100μ=01000μ(−0.3,0.3)
rm(list=ls())
# Simulated data
set.seed(1)
x = rnorm(100)
# Observed statistic
T0=mean(x)
# ABC Sampler using a uniform prior
N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1
while(i<N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}
# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]
Come puoi vedere, usando una piccola tolleranza otteniamo un'ottima approssimazione della MLE (che in questo banale esempio può essere calcolata dalla statistica dato che è sufficiente). È importante notare che la scelta della statistica riassuntiva è cruciale. I quantili sono in genere una buona scelta per la statistica riassuntiva, ma non tutte le scelte producono una buona approssimazione. Può darsi che la statistica riassuntiva non sia molto istruttiva e quindi la qualità dell'approssimazione potrebbe essere scarsa, cosa ben nota nella comunità ABC.
Aggiornamento: un approccio simile è stato recentemente pubblicato su Fan et al. (2012) . Vedi questa voce per una discussione sul documento.