Concordo con l'eccellente risposta di Xi'an , sottolineando che non esiste un unico priore "non informativo" nel senso di non fornire informazioni. Per approfondire questo argomento, ho voluto sottolineare che un'alternativa è quella di intraprendere l'analisi bayesiana all'interno di un quadro di probabilità impreciso (vedi in particolare Walley 1991 , Walley 2000 ). In questo quadro la credenza precedente è rappresentata da una serie di distribuzioni di probabilitàe questo porta a una serie corrispondente di distribuzioni posteriori. Potrebbe sembrare che non sarebbe molto utile, ma in realtà è abbastanza sorprendente. Anche con una serie molto ampia di distribuzioni precedenti (in cui determinati momenti possono variare su tutti i possibili valori) spesso si ottiene comunque una convergenza posteriore a un singolo posteriore come .n→∞
Questo quadro analitico è stato assiomatizzato da Walley come propria forma speciale di analisi probabilistica, ma è sostanzialmente equivalente a una solida analisi bayesiana che utilizza un insieme di priori, producendo un corrispondente insieme di posteriori. In molti modelli è possibile impostare un insieme "non informativo" di priori che consente ad alcuni momenti (ad esempio, la media precedente) di variare su tutto il possibile intervallo di valori, e ciò produce comunque preziosi risultati posteriori, in cui i momenti posteriori sono limitati più strettamente. Questa forma di analisi ha probabilmente una migliore pretesa di essere definita "non informativa", almeno per quanto riguarda i momenti che sono in grado di variare su tutto il loro intervallo consentito.
Un semplice esempio: modello di Bernoulli: supponiamo di osservare i dati dove è il parametro sconosciuto di interesse. Di solito useremmo una densità beta come precedente (sia il precedente di Jeffrey sia il precedente di riferimento sono di questo modulo). Possiamo specificare questa forma di densità precedente in termini di media precedente e un altro parametro come:X1,...,Xn|θ∼IID Bern(θ)θμκ>1
π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ∣∣α=μ(κ−1),β=(1−μ)(κ−1)).
(Questo modulo fornisce momenti precedenti e .) Ora, in un modello impreciso potremmo impostare il precedente in modo che sia l' insieme di tutte queste distribuzioni precedenti su tutti i possibili valori previsti , ma con l'altro parametro fissato per controllare la precisione nell'intervallo dei valori medi. Ad esempio, potremmo usare l'insieme di priori:E(θ)=μV(θ)=μ(1−μ)/κ
P0≡{Beta(μ,κ)∣∣0⩽μ⩽1}.
Supponiamo di osservare indicatori positivi nei dati. Quindi, usando la regola di aggiornamento per il modello Bernoulli-beta, il set posteriore corrispondente è:s=∑ni=1xi
Px={Beta(s+μ(κ−1)n+κ−1,n+κ)∣∣0⩽μ⩽1}.
L'intervallo di valori possibili per l'aspettativa posteriore è:
sn+κ−1⩽E(θ|x)⩽s+κ−1n+κ−1.
Ciò che è importante qui è che anche se abbiamo iniziato con un modello "non informativo" rispetto al valore atteso del parametro (l'aspettativa precedente variava su tutti i valori possibili), nondimeno finiamo con inferenze posteriori che sono informative rispetto all'aspettativa posteriore del parametro (ora vanno oltre un insieme più ristretto di valori). Come questo intervallo di valori è ridotto a un singolo punto, che è il vero valore di .n→∞θ