Esempio per un precedente, che a differenza di Jeffreys, porta a un posteriore che non è invariante


17

Sto ripubblicando una "risposta" a una domanda che avevo posto due settimane fa qui: Perché è utile il Jeffreys? Era davvero una domanda (e non avevo nemmeno il diritto di pubblicare commenti in quel momento), quindi spero sia giusto farlo:

Nel link sopra si discute che l'interessante caratteristica di Jeffreys precedenti è che, quando si ri-parametrizza il modello, la distribuzione posteriore risultante dà probabilità posteriori che obbediscono alle restrizioni imposte dalla trasformazione. Diciamo, come discusso qui, quando si passa dalla probabilità di successo nell'esempio Beta-Bernoulli a probabilità , dovrebbe essere il caso che il posteriore soddisfi .θψ=θ/(1θ)P(1/3θ2/3X=x)=P(1/2ψ2X=x)

Volevo creare un esempio numerico di invarianza di Jeffreys prima di trasformare in odds e, cosa più interessante, la loro mancanza di altri priori (diciamo, Haldane, uniformi o arbitrari).θψ

Ora, se il posteriore per la probabilità di successo è Beta (per qualsiasi precedente Beta, non solo Jeffreys), il posteriore delle probabilità segue una distribuzione Beta del secondo tipo (vedi Wikipedia) con gli stessi parametri . Quindi, come evidenziato nell'esempio numerico sotto, non è troppo sorprendente (almeno per me) che vi sia invarianza per qualsiasi scelta del precedente Beta (giocare con alpha0_Ue beta0_U), non solo Jeffreys, cfr. l'output del programma.

library(GB2) 
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)

theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3

odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)

n = 10 # some data
k = 4

alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k

alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k

# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J) 
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J) 

# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)

Questo mi porta alle seguenti domande:

  1. Faccio un errore?
  2. In caso negativo, esiste un risultato come l'assenza di invarianza nelle famiglie coniugate o qualcosa del genere? (L'ispezione rapida mi porta a sospettare che, ad esempio, non potrei produrre mancanza di invarianza nel caso normale-normale.)
  3. Sai una (preferibilmente semplice) esempio in cui ci facciamo trovare la mancanza di invarianza?

1
Non è necessario il codice R (che non posso eseguire con la versione 3.0.2 R) per verificare l'invarianza poiché è una proprietà della probabilità. Ciò che si intende per invarianza precedente è la costruzione di una regola per la selezione di prior che non dipende dalla scelta della parametrizzazione del modello di campionamento.
Xi'an,

1
Mi scuso per l'inconveniente. Funziona con R 3.1.2 sul mio computer. Se posso dare seguito, il tuo commento implica che ho frainteso il commento di Zen sulla risposta accettata, punto 1., di Stephane Laurent su Perché è utile la Jeffreys? ?
Christoph Hanck,

Risposte:


19

p(θ)

  1. pθD(θD)
  2. pψD(ψD)

e

  1. pθ(θ)pψ(ψ)
  2. pψ(ψ)pψD(ψD)

ψψθ

Tuttavia, questo non è il punto dell'invarianza in questione. Invece, la domanda è se, quando abbiamo un metodo particolare per decidere il priore, le due seguenti procedure:

  1. pθ(θ)
  2. pψ(ψ)

e

  1. pψ(ψ)

ψ

θ[0,1]ψ[0,)

θψψ


1

Sembra che tu stia verificando che le probabilità indotte dai dati non sono influenzate dalla parametrizzazione, che non ha nulla a che fare con il precedente.

Se il tuo modo di scegliere i priori è, ad esempio, "scegliere l'uniforme precedente", allora ciò che è uniforme sotto una parametrizzazione (diciamo Beta, ovvero Beta (1,1)) non è uniforme sotto un'altra, diciamo BetaPrime (1,1 ) (che è distorto) - BetaPrime (1, -1) è uniforme se esiste una cosa del genere.

Il priore di Jeffreys è l'unico "modo di scegliere i priori" che è invariante sotto la riparametrizzazione. Quindi è meno ipotetico di qualsiasi altro modo di scegliere i priori.


Non credo che il precedente di Jeffreys sia l' unico precedente invariante. Quando differiscono, le misure Haar sinistra e destra sono entrambe invarianti.
Xi'an,

@Neil G, non sono sicuro di poter seguire il tuo ragionamento sul fatto che guardo solo la probabilità. Quando collegando (es) alpha1_Jin pbetae pgb2questo parametro viene determinato sia un parametro precedente ( alpha1_J) ei dati ( k), anche per tutti gli altri parametri.
Christoph Hanck,

1
(+1) Spero che anche l'elezione dei priori soggettivi sia invariante per la parametrizzazione.
Scortchi - Ripristina Monica

1
@Zen: sì, ero troppo frettoloso: le misure di Haar sono un esempio errato. Tuttavia, mi chiedo perché Jeffreys sia l' unico precedente invariante ...
Xi'an,

2
@ Xi'an: se la mia memoria non mi manca, c'è un teorema nel libro di Cencov ( amazon.com/… ) che, in un certo senso (?), Dimostra che Jeffreys prima è l'unico ragazzo in città con il invarianza necessaria. La sua prova è inaccessibile per me. Usa il linguaggio della teoria delle categorie, i funzioni, i morfismi e tutto il resto. en.wikipedia.org/wiki/Category_theory
Zen
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.