Anch'io sono stato sedotto sia dal bootstrap che dal teorema di Bayes, ma non riuscivo a dare un senso alle giustificazioni del bootstrap fino a quando non lo guardavo da una prospettiva bayesiana. Quindi - come spiego di seguito - la distribuzione bootstrap può essere vista come una distribuzione posteriore bayesiana, il che rende ovvia la (a?) Logica alla base del bootstrap e ha anche il vantaggio di chiarire le ipotesi formulate. Vi sono maggiori dettagli sull'argomento seguente e sulle ipotesi formulate, in https://arxiv.org/abs/1803.06214 (pagine 22-26).
Ad esempio, che è impostato sul foglio di calcolo in http://woodm.myweb.port.ac.uk/SL/resample.xlsx (fai clic sulla scheda Bootstrap nella parte inferiore dello schermo), supponiamo di avere un campione di 9 misurazioni con una media di 60. Quando ho usato il foglio di calcolo per produrre 1000 campioni con la sostituzione di questo campione e arrotondato i mezzi al numero pari più vicino, 82 di questi mezzi erano 54. L'idea del bootstrap è che noi usa il campione come popolazione "finta" per vedere quanto è probabile che la media dei campioni di 9 sia variabile, quindi questo suggerisce che la probabilità che una media del campione sia 6 al di sotto della media della popolazione (in questo caso la popolazione finta in base al campione con una media di 60) è dell'8,2%. E possiamo giungere a una conclusione simile sulle altre barre nell'istogramma di ricampionamento.
Ora immaginiamo che la verità sia che la media della popolazione reale è 66. Se è così la nostra stima della probabilità che la media del campione sia il 60 (cioè i Dati) è dell'8,2% (usando la conclusione nel paragrafo sopra ricordando che 60 è 6 al di sotto della media della popolazione ipotizzata di 66). Scriviamo come
P (dato dato media = 66) = 8,2%
e questa probabilità corrisponde a un valore x di 54 sulla distribuzione di ricampionamento. Lo stesso tipo di argomento si applica a ogni possibile media della popolazione compresa tra 0, 2, 4 ... 100. In ogni caso la probabilità viene dalla distribuzione di ricampionamento, ma questa distribuzione si riflette sulla media di 60.
Ora applichiamo il teorema di Bayes. La misurazione in questione può assumere solo valori compresi tra 0 e 100, quindi arrotondando al numero pari più vicino le possibilità per la media della popolazione sono 0, 2, 4, 6, .... 100. Se assumiamo che la distribuzione precedente sia piatta, ognuna di queste ha una probabilità precedente del 2% (a 1 dp) e il teorema di Bayes ci dice che
P (PopMean = 66 dati forniti) = 8,2% * 2% / P (Dati)
dove
P (Dati) = P (PopMean = 0 dati dati) * 2% + P (PopMean = 2 dati dati) * 2% + ... + P (PopMean = 100 dati dati) * 2%
Ora possiamo cancellare il 2% e ricordare che la somma delle probabilità deve essere 1 poiché le probabilità sono semplicemente quelle della distribuzione di ricampionamento. Il che ci lascia con la conclusione che
P (PopMean = 66) = 8,2%
Ricordando che l'8,2% è la probabilità dalla distribuzione di ricampionamento corrispondente a 54 (anziché 66), la distribuzione posteriore è semplicemente la distribuzione di ricampionamento riflessa sulla media del campione (60). Inoltre, se la distribuzione del ricampionamento è simmetrica nel senso che le asimmetrie sono casuali - come in questo e in molti altri casi, possiamo considerare la distribuzione del ricampionamento identica alla distribuzione di probabilità posteriore.
Questo argomento fa varie ipotesi, la principale è che la distribuzione precedente è uniforme. Questi sono spiegati più dettagliatamente nell'articolo sopra citato.