MLE significa sempre che conosciamo il PDF sottostante dei nostri dati e EM significa che non lo sappiamo?


12

Ho alcune semplici domande concettuali che vorrei chiarire per quanto riguarda l'MLE (stima della massima verosimiglianza) e quale collegamento abbia, eventualmente, con EM (massimizzazione delle aspettative).

A quanto ho capito, se qualcuno dice "Abbiamo usato l'MLE", significa automaticamente che hanno un modello esplicito del PDF dei loro dati? Mi sembra che la risposta sia affermativa. Detto in altro modo, se in qualsiasi momento qualcuno dice "MLE", è giusto chiedere loro quale PDF stanno assumendo. Questo sarebbe corretto?

Infine, su EM, la mia comprensione è che in EM non conosciamo davvero - o non abbiamo bisogno di sapere, il PDF sottostante dei nostri dati. Questa è la mia comprensione.

Grazie.


1
La "M" in EM sta per Massimizzazione ... della probabilità. Per annotare una probabilità abbiamo bisogno di un pdf. EM è un modo per trovare MLE in presenza di "non osservabili" in un certo senso (che sono compilati nel passaggio E). Cioè, per usare EM hai bisogno di un modello esplicito.
Glen_b

@Glen_b Grazie Gleb_b. Quindi, 1) sarebbe corretto dire che in EM, come in MLE, assumiamo sempre un modello del PDF dei dati "? Ciò significa che se qualcuno dice" Abbiamo usato MLE / EM ", possiamo piuttosto chiedere" Cosa? I PDF hai assunto ". Sarebbe una valutazione corretta? 2) Infine, per quanto riguarda EM, credo che gli inosservabili a cui ti riferisci siano le probabilità di particolari PDF che compongono la miscela, corretta? Grazie in anticipo.
Creatron

Si noti che esistono metodi di massima verosimiglianza non parametrici. Cerca Kaplan-Meier.
Soakley,

Creatron - on (1) Notare che EM è un algoritmo per il calcolo di MLE che altrimenti sarebbe difficile da gestire. In entrambi i casi, farei la domanda un po 'più generale "qual era il tuo modello?", Poiché è possibile che il modello sia più complesso di un singolo pdf. On (2) L'algoritmo EM non si applica solo alle miscele; è più generale di così.
Glen_b

Risposte:


13

Il metodo MLE può essere applicato nei casi in cui qualcuno conosce la forma funzionale di base del pdf (ad esempio, è gaussiano, o log-normale, o esponenziale o altro), ma non i parametri sottostanti; ad esempio, non conoscono i valori di e nel pdf: o qualunque altro tipo di pdf stiano assumendo. Il lavoro del metodo MLE è quello di scegliere i migliori valori (cioè, più plausibili) per i parametri sconosciuti, date le misure di particolare dati che sono stati effettivamente osservato . Quindi, per rispondere alla tua prima domanda, sì, sei sempre nei tuoi diritti di chiedere a qualcuno cosaσ f ( x | μ , σ ) = 1μσx1,x2,x3,. . .

f(x|μ,σ)=12πσ2exp[(xμ)22σ2]
x1,x2,x3,...forma di pdf che stanno assumendo per la loro stima della massima verosimiglianza; infatti, i valori dei parametri stimati che ti dicono non sono nemmeno significativi a meno che non comunichino prima quel contesto.

L'algoritmo EM, come l'ho visto applicato in passato, è più una sorta di meta algoritmo, in cui mancano alcuni metadati, e anche tu devi stimarlo. Quindi, ad esempio, forse ho un pdf che è una miscela di diversi gaussiani, ad esempio: Superficialmente, ad eccezione del aggiunta del parametro di ampiezza , assomiglia molto al problema precedente, ma cosa succede se ti dicessi che anche noi non conosciamo nemmeno il valore di (cioè il numero di modalità nella miscela gaussiana) e vogliamo stimare che dalle misurazioni dei datiAkNx1,x2,x3,. . .

f(x|A1,...,AN,μ1,...,μN,σ1,...σN)=k=1NAk2πσk2exp[(xμk)22σk2]
AkNx1,x2,x3,... pure?

In questo caso, hai un problema, perché ogni possibile valore di (questa è la parte "meta" a cui alludevo sopra) genera in realtà un modello diverso, in un certo senso. Se , allora hai un modello con tre parametri ( , , ) mentre se , allora hai un modello con sei parametri ( , , , , , ). I valori di adattamento migliore che ottieni per ( , , ) inN = 1 A 1 μ 1 σ 1 N = 2 A 1 A 2 μ 1 μ 2 σ 1 σ 2 A 1 μ 1 σ 1 N = 1NN=1A1μ1σ1N=2A1A2μ1μ2σ1σ2A1μ1σ1N=1N=2

NN

N=1N=2N=3


Ak=1N

N

Ak=1NNN=4N=5
Stachyra,

Grazie stachyra. L'ultima domanda, il PDF della miscela di dati fuori (fornita nella seconda equazione composta da una somma ponderata di PDF), NON è lo stesso del PDF congiunto di tutti i campioni dei nostri dati, che è un prodotto dei loro PDF, corretto ? (Supponiamo che i campioni di dati siano IID).
Creatron,

No, per niente: sono due cose completamente diverse. Il pdf congiunto che stai descrivendo sembra molto più simile alla forma della funzione di probabilità utilizzata in MLE. Un libro di testo potrebbe esserti utile qui. Per MLE, mi piace il capitolo 10 di "Riduzione dei dati e analisi degli errori per le scienze fisiche" di Philip R. Bevington e D. Keith Robinson, o la sezione 6.1 di "Analisi dei dati statistici" di Glen Cowan. Per un esempio specifico di come eseguire un particolare tipo di implementazione EM, mi piace questa spiegazione, sezioni da 2 a 5.
stachyra

2

MLE richiede la conoscenza di almeno le distribuzioni marginali. Quando si utilizza MLE, di solito stimiamo i parametri di una distribuzione congiunta facendo un'ipotesi IID, quindi considerando la distribuzione congiunta come prodotto dei marginali, che conosciamo. Ci sono variazioni, ma questa è l'idea nella maggior parte dei casi. Quindi MLE è un metodo parametrico.

L'algoritmo EM è un metodo per massimizzare le funzioni di probabilità che emergono come parte di un algoritmo MLE. Viene spesso (di solito?) Utilizzato per soluzioni numeriche.

Ogni volta che utilizziamo MLE, abbiamo bisogno almeno delle distribuzioni marginali e di alcune assunzioni su come l'articolazione è collegata ai marginali (indipendenza, ecc.). Pertanto, entrambi i metodi si basano sulla conoscenza delle distribuzioni.


Grazie @Charles ha senso. Cosa significa allora quando le persone parlano di "MLE non parametrico". Quella frase non ha senso a prima vista. MLE stima sempre un parametro della distribuzione, giusto?
Creatron,

Potrebbero parlare di ELE (stima della probabilità empirica). Non l'ho mai usato; Proverò a spiegare se necessario. Altrimenti non ne sono sicuro.
Charles Pehlivanian,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.