Perché ottimizzare un mix di gaussiano direttamente dal punto di vista computazionale?


18

Considera la probabilità di log di una miscela di gaussiani:

l(Sn;θ)=t=1nlogf(x(t)|θ)=t=1nlog{i=1kpif(x(t)|μ(i),σi2)}

Mi chiedevo perché era difficile dal punto di vista computazionale massimizzare quell'equazione direttamente? Stavo cercando una chiara intuizione solida sul perché dovrebbe essere ovvio che è difficile o forse una spiegazione più rigorosa del perché è difficile. Questo problema è NP-completo o non sappiamo ancora come risolverlo? È questo il motivo per cui ricorrere all'uso dell'algoritmo EM ( aspettativa-massimizzazione )?


Notazione:

Sn = dati di allenamento.

x(t) = punto dati.

θ = l'insieme di parametri che specificano il gaussiano, i loro mezzi, le deviazioni standard e la probabilità di generare un punto da ciascun cluster / classe / gaussiano.

pi = probabilità di generare un punto dal cluster / class / gaussiano i.

Risposte:


14

Innanzitutto, GMM è un algoritmo particolare per il clustering, in cui si tenta di trovare l'etichettatura ottimale delle osservazioni. Avendo possibili classi, significa che ci sono possibili etichette dei dati di allenamento. Questo diventa già enorme per valori moderati di e .k k n k nnkknkn

In secondo luogo, il funzionale che stai cercando di ridurre al minimo non è convesso e, insieme alla dimensione del tuo problema, lo rende molto difficile. So solo che k-mean (GMM può essere visto come una versione soft dei kmean) è NP-difficile. Ma non so se sia stato provato anche per GMM.

Per vedere che il problema non è convesso, considerare il caso monodimensionale: e verifica di non poter garantire che per tutti x.d2L

L=log(e(x/σ1)2+e(x/σ2)2)
d2Ldx2>0

Avere un problema non convesso significa che puoi rimanere bloccato nei minimi locali. In generale, non hai le forti garanzie che hai nell'ottimizzazione convessa e anche la ricerca di una soluzione è molto più difficile.


3
Per quanto riguarda il secondo punto: i k-media possono essere visti come un caso speciale di MGM (più precisamente, un caso limite in cui le varianze sono portate a zero). Se riusciamo a ridurre i mezzi k per il montaggio di un GMM, anche quest'ultimo deve essere un problema NP-difficile.
Lucas,

1
@Lucas: ecco un link convalidato in modo incrociato alla tua osservazione.
Xi'an,

7

Oltre ai punti di juampa, vorrei segnalare queste difficoltà:

  • La funzione non ha limiti, quindi il massimo vero è e corrisponde a (ad esempio) e . Un vero massimizzatore dovrebbe quindi finire con questa soluzione, che non è utile ai fini della stima.+ u ( i )l(θ|Sn)+σ i = 0μ^(i)=x1σ^i=0
  • Anche senza considerare i termini nella decomposizione del prodotto delle somme come somma dei prodotti in , la funzione da massimizzare in è altamente multi-modale (oltre ad essere non- convesso) quindi una sfida per i metodi numerici. EM riconosce la difficoltà convergendo in una modalità locale o in un punto di sella e richiedendo corse multiple. Come mostrato su lknl(θ|Sn)θl'immagine qui sotto

tratto dal mio libro .

Un'osservazione aggiuntiva: senza chiamare l'algoritmo EM, si può usare un algoritmo di ottimizzazione standard (come Newton-Raphson) un parametro alla volta, cioè iterare

  • trovaθ1=argmaxθ1l(θ|Sn)
  • findθ2'=argmaxθ2l(θ1',θ-1|Sn)
  • ...
  • findθv'=argmaxθvl(θ-v',θv|Sn)

se ci sono parametri e ogni passaggio dovrebbe aumentare il valore della funzione target , ma questo schema nella migliore delle ipotesi finirà nella stessa modalità dell'algoritmo EM.l ( θ | S n )vl(θ|Sn)


OK, L non ha limiti se la varianza è 0. Ma se li escludiamo dai possibili parametri (quindi assumiamo tutta la varianza> 0), allora L non dovrebbe essere così alto ogni volta che la varianza infinitesimale viene scelta (a causa di altri punti). Ho ragione? Quindi, per questo possibile insieme di parametri, L verrebbe limitato e questo implicherà che l'algoritmo EM converge (aumentando la sequenza limitata).
ahstat,

@ahstat: supponendo che le varianze siano strettamente positive non impedisce all'EM di convergere in una soluzione degenerata se avviata abbastanza vicino.
Xi'an,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.