Quali algoritmi / tecniche MCMC sono utilizzati per parametri discreti?


19

Conosco una buona dose sull'adattamento di parametri continui, in particolare sui metodi basati sul gradiente, ma non molto sull'adattamento di parametri discreti.

Quali sono gli algoritmi / tecniche MCMC comunemente utilizzati per l'adattamento di parametri discreti? Ci sono algoritmi che sono sia abbastanza generali che abbastanza potenti? Esistono algoritmi che affrontano bene la maledizione della dimensionalità? Ad esempio, direi che l'MCMC Hamiltoniano è generale, potente e ben ridimensionato.

Il campionamento da una distribuzione discreta arbitraria sembra più difficile del campionamento da una distribuzione continua, ma sono curioso di sapere quale sia lo stato dell'arte.

Modifica : JMS mi ha chiesto di elaborare.

Non ho in mente applicazioni specifiche, ma ecco alcuni tipi di modelli che sto immaginando:

  • Selezione del modello tra diversi tipi di modelli di regressione continua. Hai un singolo parametro 'modello' discreto
  • Un modello continuo in cui ogni osservazione ha la possibilità di essere "anomala" e attinta da una distribuzione molto più dispersa. Suppongo che questo sia un modello misto.

Mi aspetto che molti modelli includano parametri continui e discreti.

Risposte:


13

Quindi la semplice risposta è sì: Metropolis-Hastings e il suo caso speciale Gibbs campionamento :) Generale e potente; se si ridimensiona o meno dipende dal problema attuale.

Non sono sicuro del perché pensi che campionare una distribuzione discreta arbitraria sia più difficile di una distribuzione continua arbitraria. Se riesci a calcolare la distribuzione discreta e lo spazio del campione non è enorme, allora è molto, molto più semplice (a meno che la distribuzione continua non sia standard, forse). Calcola la probabilità per ogni categoria, quindi normalizza per ottenere le probabilità e usa il campionamento inverso della trasformazione (imponendo un ordine arbitrario su ) .P ( ˜ k = k ) = f ( k ) /f ( k ) kf(K)P(K~=K)=f(K)/Σf(K)K

Hai in mente un modello particolare? Esistono tutti i tipi di approcci MCMC per il montaggio di modelli di miscele, ad esempio, in cui le assegnazioni di componenti latenti sono parametri discreti. Questi vanno da molto semplici (Gibbs) a piuttosto complessi.

Quanto è grande lo spazio dei parametri? È potenzialmente enorme (ad esempio nel caso del modello di miscela, è N in base al numero di componenti della miscela)? Potrebbe non essere necessario altro che un campionatore di Gibbs, poiché la coniugazione non è più un problema (è possibile ottenere direttamente la costante di normalizzazione in modo da poter calcolare tutti i condizionali). In realtà Griddy Gibbs era popolare in questi casi, dove un precedente continuo viene discretizzato per facilitare il calcolo.

Non penso che ci sia un "migliore" particolare per tutti i problemi che hanno uno spazio di parametri discreto più di quanto non ci sia per il caso continuo. Ma se ci dici di più sui modelli che ti interessano, forse possiamo dare alcuni consigli.

Modifica: OK, posso dare qualche informazione in più in riferimento ai tuoi esempi.

Il tuo primo esempio ha una storia piuttosto lunga, come potresti immaginare. Una revisione recente è in [1], vedi anche [2]. Proverò a fornire alcuni dettagli qui: un esempio rilevante è la selezione di variabili di ricerca stocastica. La formulazione iniziale era di usare priori assolutamente continui come . Questo in realtà risulta funzionare male rispetto a priori come dove è un punto di massa a 0. Nota che entrambi si adattano alla tua formulazione originale; un approccio MCMC di solito procede aumentando con un indicatore del modello (discreto) (diciamo ). Ciò equivale a un indice di modello; se haip ( β ) π δ 0 ( β ) + ( 1 - π )p(β)~πN(β;0,τ)+(1-π)N(β,0,1000τ)p(β)~πδ0(β)+(1-π)N(β,0,τ)δ0βZZ1...,Zp quindi ovviamente puoi rimappare le possibili configurazioni ai numeri in .2p1:2p

Quindi, come puoi migliorare MCMC? In molti di questi modelli è possibile campionare da per composizione, cioè usando quella . Aggiornamenti a blocchi come questo possono migliorare enormemente il missaggio poiché la correlazione tra e è ora irrilevante per il campionatorep(Z,β|y)p(Z,β|y)=p(β|Y,Z)p(Z|Y)Zβ

SSVS incorpora l'intero spazio del modello in un unico grande modello. Spesso questo è facile da implementare ma dà scarsi risultati. Salto reversibile MCMC è un diverso tipo di approccio che consente di variare esplicitamente la dimensione dello spazio dei parametri; vedere [3] per una recensione e alcune note pratiche. Puoi trovare note più dettagliate sull'implementazione in diversi modelli in letteratura, ne sono sicuro.

Spesso un approccio MCMC completo è impossibile; supponiamo che tu abbia una regressione lineare con variabili e stai usando un approccio come SSVS. Non puoi sperare che il tuo campionatore converga; non c'è abbastanza tempo o potenza di calcolo per visitare tutte quelle configurazioni di modello e sei particolarmente colpito se alcune delle tue variabili sono anche moderatamente correlate. Dovresti essere particolarmente scettico nei confronti delle persone che cercano di stimare cose come le probabilità di inclusione variabile in questo modo. Per tali casi sono stati proposti vari algoritmi di ricerca stocastica utilizzati in combinazione con MCMC. Un esempio è BAS [4], un altro è in [5] (Sylvia Richardson ha anche altri lavori pertinenti); la maggior parte degli altri di cui sono a conoscenza sono orientati verso un modello particolare.p=1000

Un approccio diverso che sta guadagnando popolarità è l'uso di priori di ritiro assolutamente continui che imitano i risultati medi del modello. In genere, questi sono formulati come miscele in scala di normali. Il lazo bayesiano è un esempio, che è un caso speciale di priori di gamma normale e un caso limitante di priori di gamma esponenziale normale. Altre scelte includono il ferro di cavallo e la classe generale delle normali distribuzioni con beta precedenti invertiti sulla loro varianza. Per ulteriori informazioni, suggerirei di iniziare con [6] e di tornare indietro tra i riferimenti (troppi per me da replicare qui :))

Aggiungerò ulteriori informazioni sui modelli anomali più avanti se ne avrò la possibilità; il riferimento classico è [7]. Sono molto simili nello spirito a ridurre i priori. Di solito sono abbastanza facili da fare con il campionamento di Gibbs.

Forse non pratico come speravi; La selezione del modello in particolare è un problema difficile e più elaborato è il modello, peggio diventa. L'aggiornamento del blocco, ove possibile, è l'unico consiglio generale che ho. Campionando da una miscela di distribuzioni avrai spesso il problema che gli indicatori di appartenenza e i parametri dei componenti sono altamente correlati. Inoltre non ho toccato problemi di cambio di etichetta (o mancanza di cambio di etichetta); c'è un bel po 'di letteratura lì, ma è un po' fuori dalla mia timoniera.

Ad ogni modo, penso che sia utile iniziare con alcuni dei riferimenti qui, per avere un'idea dei diversi modi in cui altri stanno affrontando problemi simili.

[1] Merlise Clyde ed EI George. Model Uncertainty Statistical Science 19 (2004): 81--94. http://www.isds.duke.edu/~clyde/papers/statsci.pdf

[2] http://www-personal.umich.edu/~bnyhan/montgomery-nyhan-bma.pdf

[3] Green & Hastie Reversible jump MCMC (2009) http://www.stats.bris.ac.uk/~mapjg/papers/rjmcmc_20090613.pdf

[4] http://www.stat.duke.edu/~clyde/BAS/

[5] http://ba.stat.cmu.edu/journal/2010/vol05/issue03/bottolo.pdf

[6] http://www.uv.es/bernardo/Polson.pdf

[7] Modelli Mike West Outlier e precedenti distribuzioni nella regressione lineare bayesiana (1984) JRSS-B


1
Mi scuso per aver impiegato molto tempo a rispondere. Ho inserito alcuni tipi di modelli di esempio. Fammi sapere se vuoi maggiori chiarimenti. Pensavo che le distribuzioni discrete fossero più difficili da campionare perché sembra che sarebbero più inclini a comportamenti simil-multimodali. La normalizzazione esplicita è applicabile quando si dispone di un mix di variabili discrete e continue?
John Salvatier,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.