Mi chiedevo se qualcuno potesse dare un riassunto conciso delle definizioni e degli usi dei valori p, del livello di significatività e dell'errore di tipo I.
Comprendo che i valori di p sono definiti come "la probabilità di ottenere una statistica di test almeno estrema quanto quella che abbiamo effettivamente osservato", mentre un livello di significatività è solo un valore di interruzione arbitrario per valutare se il valore di p è significativo o no . L'errore di tipo I è l'errore di un'ipotesi nulla respinta che era vera. Tuttavia, non sono sicuro della differenza tra il livello di significatività e l'errore di tipo I, non sono lo stesso concetto?
Ad esempio, supponi un esperimento molto semplice in cui lancio una moneta 1000 volte e conto il numero di volte in cui finisce sulle "teste". La mia ipotesi nulla, H0, è che heads = 500 (moneta imparziale). Ho quindi impostato il livello di significatività su alpha = 0,05.
Lancio la moneta 1000 volte e quindi calcolo il valore p, se il valore p è> 0,05, allora non riesco a rifiutare l'ipotesi nulla e se il valore p è <0,05, quindi rifiuto l'ipotesi nulla.
Ora, se avessi ripetutamente fatto questo esperimento, ogni volta calcolando il valore p e rifiutando o non riuscendo a rifiutare l'ipotesi nulla e tenendo conto di quanti ho rifiutato / non ho rifiutato, finirei per rifiutare il 5% delle ipotesi null che erano in realtà veri, è corretto? Questa è la definizione di errore di tipo I. Pertanto, il livello di significatività nei test di significatività di Fisher è essenzialmente l'errore di tipo I del test di ipotesi di Neyman-Pearson se hai eseguito esperimenti ripetuti.
Ora per quanto riguarda i valori di p, se avessi ottenuto un valore di p di 0,06 dal mio ultimo esperimento e avessi fatto più esperimenti e avessi contato tutti quelli che avevo ottenuto un valore di p da 0 a 0,06, allora non avrei anche un 6% di probabilità di respingere una vera ipotesi nulla?