Nota: mi scuso in anticipo se questo è un duplicato, non ho trovato una q simile nella mia ricerca
Supponiamo di avere un parametro vero p. Un intervallo di confidenza C (X) è un camper che contiene p, diciamo il 95% delle volte. Supponiamo ora di osservare X e calcolare C (X). La risposta comune sembra essere che non è corretto interpretare questo come se avesse una "probabilità del 95% di contenere p" poiché "o fa o non contiene p"
Tuttavia, diciamo che scelgo una carta dalla cima di un mazzo mescolato e la lascio coperta. Intuitivamente penso alla probabilità che questa carta sia l'asso di picche come 1/52, anche se in realtà "o è o non è l'asso di picche". Perché non posso applicare questo ragionamento all'esempio dell'intervallo di confidenza?
Oppure, se non è significativo parlare della "probabilità" che la carta sia l'asso di picche poiché "è o non è", continuerei a stabilire 51: 1 probabilità che non sia l'asso di picche. C'è un'altra parola per descrivere queste informazioni? In che modo questo concetto è diverso dalla "probabilità"?
modifica: forse per essere più chiari, da un'interpretazione bayesiana della probabilità, se mi viene detto che una variabile casuale contiene p 95% del tempo, data la realizzazione di quella variabile casuale (e nessuna altra informazione su cui condizionare) è vero? corretto dire che la variabile casuale ha una probabilità del 95% di contenere p?
modifica: inoltre, da una interpretazione frequente della probabilità, diciamo che il frequentista accetta di non dire niente del tipo "esiste una probabilità del 95% che l'intervallo di confidenza contenga p". È ancora logico che un frequentatore abbia una "confidenza" che l'intervallo di confidenza contiene p?
Sia alfa il livello di significatività e sia t = 100-alfa. K (t) è la "confidenza" del frequentatore che l'intervallo di confidenza contiene p. Ha senso che K (t) dovrebbe aumentare in t. Quando t = 100%, il frequentista dovrebbe avere la certezza (per definizione) che l'intervallo di confidenza contiene p, quindi possiamo normalizzare K (1) = 1. Allo stesso modo, K (0) = 0. Presumibilmente K (0,95) è da qualche parte tra 0 e 1 e K (0.999999) è maggiore. In che modo il frequentista considererebbe K diverso da P (la distribuzione di probabilità)?