La struttura bayesiana ha un grande vantaggio rispetto al frequentista perché non dipende dall'avere una "sfera di cristallo" in termini di conoscenza delle ipotesi distributive corrette da fare. I metodi bayesiani dipendono dall'utilizzo delle informazioni che hai e dal saper codificare tali informazioni in una distribuzione di probabilità.
L'uso dei metodi bayesiani sta fondamentalmente usando la teoria della probabilità nella sua piena potenza. Il teorema di Bayes non è altro che una riaffermazione della classica regola del prodotto della teoria della probabilità:
p ( θ x | I) = p ( θ | I) p ( x | θ I) = p ( x | I) p ( θ | x I)
p ( x | I) ≠ 0io
Ora, se pensi che il teorema di Bayes sia sospetto, quindi logicamente, devi anche pensare che anche la regola del prodotto sia sospetta. Puoi trovare un argomento deduttivo qui , che deriva le regole di prodotto e somma, simile al teorema di Cox. Un elenco più esplicito delle ipotesi richieste è disponibile qui .
Per quanto ne so, l'inferenza del frequentista non si basa su un insieme di basi all'interno di un quadro logico. Poiché utilizza gli assiomi di probabilità di Kolmogorov, non sembra esserci alcuna connessione tra la teoria della probabilità e l'inferenza statistica. Non ci sono assiomi per l'inferenza del frequentista che conducono a una procedura da seguire. Esistono principi e metodi (massima probabilità, intervalli di confidenza, valori p, ecc.) E funzionano bene, ma tendono ad essere isolati e specializzati per problemi particolari. Penso che i metodi frequentisti siano meglio lasciati vaghi nelle loro basi, almeno in termini di un rigoroso quadro logico.
1θ , e mi è capitato di indovinare la stima della massima verosimiglianza (MLE), ciò non significherebbe che la mia ipotesi è buona quanto MLE.
2 , perché dovresti preoccuparti che le persone con informazioni diverse giungano a conclusioni diverse? Qualcuno con un dottorato in matematica dovrebbe, e dovrebbe, giungere a conclusioni diverse per qualcuno con matematica di livello superiore. Hanno diverse quantità di informazioni: perché dovremmo aspettarci che siano d'accordo? Quando ti vengono presentate informazioni conosciute, tendi a cambiare idea. Quanto dipende dal tipo di informazione che era. Il teorema di Bayes contiene questa funzione, come dovrebbe.
L'uso di un precedente uniforme è spesso una comoda approssimazione da fare quando la probabilità è forte rispetto al precedente. Non vale la pena lo sforzo a volte, per passare attraverso e impostare correttamente un precedente. Allo stesso modo, non commettere l'errore di confondere le statistiche bayesiane con MCMC. MCMC è solo un algoritmo per l'integrazione, lo stesso del quadratre guassiano e in una classe simile all'approssimazione di Laplace. È un po 'più utile di quadratre perché puoi riutilizzare l'output dell'algoritmo per fare tutti i tuoi integrali (i mezzi posteriori e le varianze sono integrali) e un po' più generale di Laplace perché non hai bisogno di un grande campione, o un picco ben arrotondato nella parte posteriore (Laplace è però più veloce).