Perché è utile la Jeffreys?


Risposte:


30

Vorrei completare la risposta di Zen. Non mi piace molto l'idea di "rappresentare l'ignoranza". L'importante non è il Jeffreys precedente, ma il Jeffreys posteriore . Questo posteriore mira a riflettere nel miglior modo possibile le informazioni sui parametri apportati dai dati. La proprietà di invarianza è naturalmente richiesta per i due punti seguenti. Si consideri ad esempio il modello binomiale con parametro di proporzione sconosciuto e parametro di quota ψ = θθ .ψ=θ1θ

  1. La parte posteriore di Jeffreys su riflette nel miglior modo possibile le informazioni su θ fornite dai dati. Esiste una corrispondenza uno a uno tra θ e ψ . Quindi, trasformando il Jeffreys posteriore su θ in posteriore su ψ (tramite la solita formula del cambio di variabili) dovrebbe produrre una distribuzione che rifletta al meglio le informazioni su ψ . Quindi questa distribuzione dovrebbe essere la parte posteriore di Jeffreys su ψ . Questa è la proprietà dell'invarianza.θθθψθψψψ

  2. Un punto importante nel trarre conclusioni da un'analisi statistica è la comunicazione scientifica . Immagina di dare il Jeffreys posteriore a un collega scientifico. Ma lui / lei è interessato a ψ piuttosto che θ . Quindi questo non è un problema con la proprietà di invarianza: deve solo applicare la formula di cambio delle variabili.θψθ


Ah, questo chiarisce un po 'le cose. Ma c'è una ragione intuitivamente buona per cui il posteriore per il parametro odds dovrebbe essere uguale al posteriore per il parametro proporzione? Mi sembra piuttosto innaturale.
tskuzzy,

Non é la stessa cosa ! Uno è indotto dall'altro dalla formula del cambio di variabili. Esiste una corrispondenza uno a uno tra i due parametri. Quindi la distribuzione posteriore su uno di questi parametri dovrebbe indurre la distribuzione posteriore sull'altro.
Stéphane Laurent,

2
(+1) Stéphane. L'OP sembra essere ancora confuso quando dice "... dovrebbe essere lo stesso ...". I due posteriori non sono "lo stesso", quello che succede è che, per esempio, nell'esempio di Stéphane, si ha che ; se non hai questo tipo di coerenza usando i priori predefiniti (calcolati), i tuoi priori sono un po 'pazzi. P{1/3θ2/3X=x}=P{1/2ψ2X=x}
Zen,

1
Penso che ciò che manca in questo post sia che quando ci sono molte informazioni nei dati su un parametro, il particolare usato in precedenza non ha importanza. Ad esempio, una proporzione binomiale, sia che usiamo un'uniforme, jeffreys o haldane precedenti, fa una differenza molto piccola a meno che il posteriore non sia molto ampio. In questo caso è un po 'un argomento accademico su quale prior sia "giusto" perché non si possono trarre comunque conclusioni significative. Il valore reale di un priore non informativo è in più dimensioni, ma questo problema non è stato risolto: il priore di Jeffreys qui non va bene.
Probislogic,

3
Questa teoria è incompleta e dipende dall'ordinamento dei parametri, dalla scelta della regione compatta e dalla funzione di probabilità. Quindi non obbedisce al principio di verosimiglianza per esempio. Inoltre, è difficile applicare a dati non indipendenti. Inoltre, la teoria di Bernardo è completa solo per i problemi dei parametri 1-d. Tuttavia, è probabilmente il miglior metodo disponibile al momento. Un buon concorrente è l'approccio del gruppo di trasformazione di Jaynes.
Probislogic,

41

Supponiamo che tu e un amico stiate analizzando lo stesso set di dati usando un modello normale. Adotti la solita parametrizzazione del modello normale usando la media e la varianza come parametri, ma il tuo amico preferisce parametrizzare il modello normale con il coefficiente di variazione e la precisione come parametri (che è perfettamente "legale"). Se entrambi usate i priori di Jeffreys, la vostra distribuzione posteriore sarà la distribuzione posteriore del vostro amico trasformata correttamente dalla sua parametrizzazione alla vostra. È in questo senso che il priore dei Jeffreys è "invariante"

(A proposito, "invariante" è una parola orribile; ciò che intendiamo veramente è che è "covariante" nello stesso senso di calcolo tensoriale / geometria differenziale, ma, naturalmente, questo termine ha già un significato probabilistico ben definito, quindi non possiamo usarlo.)

Perché si desidera questa proprietà di coerenza? Perché, se il priore di Jeffreys ha qualche possibilità di rappresentare l'ignoranza sul valore dei parametri in un senso assoluto (in realtà, non lo è, ma per altri motivi non correlati all '"invarianza"), e non l'ignoranza relativamente a una particolare parametrizzazione del modello, deve essere il caso che, indipendentemente dalle parametrizzazioni che arbitrariamente scegliamo di iniziare, i nostri posteriori dovrebbero "abbinarsi" dopo la trasformazione.

Lo stesso Jeffreys ha violato questa proprietà di "invarianza" regolarmente durante la costruzione dei suoi priori.

Questo documento ha alcune interessanti discussioni su questo e argomenti correlati.


1
+1: buona risposta. Ma perché il precedente di Jeffreys non rappresenta l'ignoranza sul valore dei parametri?
Neil G,

4
Perché non è nemmeno una distribuzione. È paradossale affermare che una distribuzione riflette l'ignoranza. Una distribuzione riflette sempre le informazioni.
Stéphane Laurent,

2
Un altro riferimento: projecteuclid.org/…
Stéphane Laurent,

@ StéphaneLaurent: si deve avere una certa fiducia anche in uno stato di totale ignoranza. Qualunque cosa il tuo posteriore sia meno, qualunque sia la probabilità indotta dai tuoi dati è la convinzione che stai assumendo in quello stato di ignoranza. Il principio intuitivo che deve essere rispettato quando si decide tale convinzione è che dovrebbe essere invariante rispetto ai cambiamenti di etichette (compresa la riparametrizzazione). Non ne sono sicuro, ma penso che solo quel principio (in tutte le sue possibili interpretazioni - massima entropia, invariante riparazione, ecc.) Decida sempre la convinzione.
Neil G,

Pertanto, quando si dice "una distribuzione riflette l'ignoranza", si intende che la distribuzione concorda con questo principio.
Neil G,

12

Per aggiungere alcune citazioni alla grande risposta dello Zen: Secondo Jaynes, il precedente di Jeffreys è un esempio del principio dei gruppi di trasformazione, che deriva dal principio di indifferenza:

A1A2p1=p2(1,2) potremmo quindi generare un nuovo problema in cui il nostro stato di conoscenza è lo stesso ma in cui stiamo assegnando diverse probabilità ...

Ora, per rispondere alla tua domanda: "Perché non vuoi che il precedente cambi sotto un cambio di variabili?"

Secondo Jaynes, la parametrizzazione è un altro tipo di etichetta arbitraria e non si dovrebbe essere in grado di "generare un semplice scambio di etichette per generare un nuovo problema in cui il nostro stato di conoscenza è lo stesso ma in cui stiamo assegnando diverse probabilità. ”


2
Jaynes mi sembra in qualche modo mistico.
Stéphane Laurent,


2
Xian ha ricevuto un messaggio di elogio a Jaynes: ceremade.dauphine.fr/~xian/critic.html È un peccato se non leggi il francese, questa posta è sia spaventosa che divertente. Lo scrittore sembra impazzito pensando troppo alle statistiche bayesiane;)
Stéphane Laurent,

1
@ StéphaneLaurent: leggendolo ora. Questo è assolutamente giusto: "si vir affirmez en page 508" la non ripetibilità della maggior parte degli esperimenti "à quoi bon ensuite" alla ricerca di procedure fequentiste ottimali "a pagina 512? Si può iniziare con le domande più recenti? commenta "choix Bayésien", qui se veut être il paradigme pour tout problème inférentiel, n'est-ce pas, peut-il se baser sur une riconciliazione con il fréquentisme (p. 517-518)? Pourquoi ne pas dire une fois pour toute qu'une probabilité n'est jamais ine fréquence! "
Neil G,

1
Inoltre: "Il Principe del Massimo d'Entropie è lui assolutamente fondamentale, ma non è né così né credente e soddisfacente per il caso in cui si tratta e questo è il modo in cui si procede in questo senso con la significazione veritiera delle probabilità a priori. qu'il permet ensuite d'unifier Théorie de l'Information, Mécanique Statistique, Thermodynamique ... "descrive anche la mia posizione. Tuttavia, a differenza dello scrittore, non mi interessa dedicare ore a convincere gli altri ad accettare ciò che trovo così naturale.
Neil G,

4

pN(μ0,σ02)+(1p)N(μ1,σ12)
Ho scritto con Clara Grazian.)

-2

Il priore di Jeffreys è inutile . Questo è perché:

  1. Specifica solo la forma della distribuzione; non ti dice quali dovrebbero essere i suoi parametri.
  2. Non sei mai completamente ignorante - c'è sempre qualcosa nel parametro che conosci (ad es. Spesso non può essere l'infinito). Usalo per la tua inferenza definendo una distribuzione precedente. Non mentire a te stesso dicendo che non sai nulla.
  3. "Invarianza in trasformazione" non è una proprietà desiderabile. La tua probabilità cambia in trasformazione (ad es. Dal giacobino). Questo non crea "nuovi problemi", ritmo Jaynes. Perché il precedente non dovrebbe essere trattato allo stesso modo?

Basta non usarlo.


1
Eh? Il rischio non è una densità e non cambierà sotto la riparametrizzazione
innisfree il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.