Qual è la relazione dietro Jeffreys Priors e una varianza che stabilizza la trasformazione?


17

Stavo leggendo del precedente di Jeffreys su wikipedia: Jeffreys Prior e ho visto che dopo ogni esempio, descrive come una trasformazione stabilizzatrice della varianza trasforma il priore di Jeffreys in un precedente uniforme.

Ad esempio, per il caso di Bernoulli, si afferma che per una moneta che è lanciata con probabilità γ[0,1] , il modello di prova di Bernoulli produce che il Jeffreys precedente per il parametro γ è:

p(γ)α1γ(1-γ)

Indica quindi che questa è una distribuzione beta con α=β=12 . Indica anche che seγ=peccato2(θ), allora il Jeffreys precedente aθè uniforme nell'intervallo[0,π2].

Riconosco la trasformazione come quella di una trasformazione stabilizzante la varianza. Ciò che mi confonde è:

  1. Perché una trasformazione stabilizzante la varianza si tradurrebbe in un precedente uniforme?

  2. Perché dovremmo persino desiderare un'uniforme prima? (poiché sembra che possa essere più suscettibile di essere improprio)

In generale, non sono del tutto sicuro del motivo per cui viene data la trasformazione seno-quadrato e quale ruolo gioca. Qualcuno avrebbe qualche idea?


2
Chiederò questo come un ciarlatano autodidatta, ma a quale trasformazione di stabilizzazione della varianza ti riferisci? ? 1sin2(θ)(1sin2(θ))
Shadowtalker

2
Il seno quadrato è convenzionalmente il modo sbagliato di pensare alla trasformazione. è la radice quadrata arcsine o trasformazione angolare. θ=arcsinγ
Nick Cox,

Risposte:


3

Il priore di Jeffreys è invariante sotto riparametrizzazione. Per questo motivo, molti bayesiani lo considerano un "priore non informativo". (Hartigan ha mostrato che esiste un intero spazio di tali priori per α + β = 1 in cui J è il priore di Jeffreys e H è il priore invariante asintoticamente locale di Hartigan. - Distribuzioni precedenti invarianti ) JαHβα+β=1JH

È una falsità spesso ripetuta che il precedente uniforme non è informativo, ma dopo una trasformazione arbitraria dei tuoi parametri, e un precedente uniforme sui nuovi parametri significa qualcosa di completamente diverso. Se un cambiamento arbitrario di parametrizzazione influisce sul tuo precedente, il tuo precedente è chiaramente informativo.

  1. L'uso di Jeffreys equivale , per definizione , all'utilizzo di un flat precedente dopo l'applicazione della trasformazione di stabilizzazione della varianza.

  2. Da un punto di vista matematico, usare il precedente di Jeffreys e usare un precedente piatto dopo aver applicato la trasformazione di stabilizzazione della varianza sono equivalenti. Da un punto di vista umano, quest'ultimo è probabilmente più bello perché lo spazio dei parametri diventa "omogeneo", nel senso che le differenze sono tutte uguali in ogni direzione, indipendentemente da dove ti trovi nello spazio dei parametri.

Considera il tuo esempio di Bernoulli. Non è un po 'strano che il punteggio del 99% in un test sia la stessa distanza dal 90% al 59% al 50%? Dopo la trasformazione stabilizzante la varianza, la coppia precedente è più separata, come dovrebbe essere. Corrisponde alla nostra intuizione sulle distanze effettive nello spazio. (Matematicamente, la trasformazione stabilizzante la varianza sta rendendo la curvatura della perdita del tronco uguale alla matrice dell'identità.)


1. Concordo sul fatto che un precedente uniforme non significa un precedente "non informativo", ma il mio commento sul non valutare un determinato valore rispetto a un altro valore è ancora valido (in base a quella particolare parametrizzazione). 2. La correttezza di un priore è molto preoccupante . Se si dispone di un improprio dei dati precedenti e avere, è non è garantito che si avrà un posteriore corretta. Quindi è molto preoccupante.
Greenparker,

1. Ma questo è il punto: la parametrizzazione è arbitraria, quindi non ha senso dire che non stai valutando un valore rispetto a un altro. 2. In pratica, non l'ho mai trovato relativo. Immagino che potrebbe riguardare altre persone.
Neil G,

1. Punto giusto. 2. Non sono sicuro di quali problemi affronti, ma anche la semplice probabilità gaussiana con un precedente Jeffreys può avere un posteriore improprio. Vedi la mia risposta qui .
Greenparker,

@Greenparker Hai ragione. Chiarirò perché non mi riguarda nella mia risposta.
Neil G,

Non penso che la modifica sia corretta. Se il posteriore è improprio, MCMC è sicuramente privo di senso dal momento che stai provando a disegnare da una distribuzione indefinita. Immagina di provare a campionare da Uniform usando qualsiasi schema di campionamento. Tuttavia, l'algoritmo MCMC potrebbe essere ancora ergodico (quando si ha una ricorrenza nulla), ma i campioni saranno inutili. (0,)
Greenparker,

5

La pagina di Wikipedia che hai fornito in realtà non usa il termine "trasformazione stabilizzante la varianza". Il termine "trasformazione stabilizzante la varianza" viene generalmente utilizzato per indicare trasformazioni che rendono costante la varianza della variabile casuale. Sebbene nel caso di Bernoulli, questo è ciò che sta accadendo con la trasformazione, non è esattamente quello che l'obiettivo è. L'obiettivo è ottenere una distribuzione uniforme e non solo una varianza che stabilizzi.

Ricordiamo che uno degli scopi principali dell'utilizzo di Jeffreys in precedenza è che è invariante in fase di trasformazione. Ciò significa che se si parametrizza nuovamente la variabile, il precedente non cambierà.

1.

(1/2,1/2)

pγ(γ)α1γ(1-γ).

γ=peccato2(θ)θθ=arcsin(γ)0<γ<10<θ<π/2peccato2(X)+cos2(X)=1

Fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))fθ(x)=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))sin(x)cos(x)1sin2(x)(1sin2(x))=1.

Thus θ is the uniform distribution on (0,π/2). This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.

2.

Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,

q(θ|x)f(x|θ)f(θ)f(x|θ).

If the transformation is such that the transformed space is bounded, (like (0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.


This idea that you are "not committing to any value" by using a diffuse prior is wrong. The proof is that you can take any transformation of the space and the diffuse prior will mean something completely different.
Neil G

My comment on "not committing to any value" refers only to that particular parameterization. Of course, transformations will change how the mass is distributed (just like in this Bernoulli example).
Greenparker

Like I said below your other comment, the parametrization is arbitrary, which is why the statement "not committing to any value" is meaningless.
Neil G
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.