La funzione di probabilità è definita come la probabilità di un evento (set di dati x ) in funzione dei parametri del modello θExθ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Pertanto, non vi è alcuna ipotesi di indipendenza delle osservazioni. Nell'approccio classico non esiste una definizione di indipendenza dei parametri poiché non sono variabili casuali; alcuni concetti correlati potrebbero essere identificabilità , ortogonalità dei parametri e indipendenza degli stimatori di massima verosimiglianza (che sono variabili casuali).
Qualche esempio,
(1). Caso discreto . è un campione di (indipendente) osservazioni discrete con P ( osservando x j ; θ ) > 0 , allorax=(x1,...,xn)P(observing xj;θ)>0
L(θ;x)∝∏j=1nP(observing xj;θ).
In particolare, se , con N noto, lo abbiamoxj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Approssimazione continua . Let sia un campione da una vc continua X , con la distribuzione F e la densità f , con la misura di errore ε , questo è, si osservano i gruppi ( x jx=(x1,...,xn)XFfϵ . Poi(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
Quando è piccolo, questo può essere approssimato (usando il Teorema del valore medio) diϵ
L(θ;x)∝∏j=1nf(xj;θ)
Per un esempio con il caso normale, dai un'occhiata a questo .
(3). Modello dipendente e Markov . Si supponga che è un insieme di osservazioni eventualmente dipendenti e lasciare che f sia la densità congiunta di x , allorax=(x1,...,xn)fx
L(θ;x)∝f(x;θ).
Se inoltre la proprietà Markov è soddisfatta, allora
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Dai un'occhiata anche a questo .