Ho scritto un programma che genera dati casuali. Se il programma funziona correttamente, tali dati dovrebbero seguire una distribuzione di probabilità specifica e nota. Vorrei eseguire il programma, fare alcuni calcoli sul risultato e trovare un valore p.
Prima di chiunque altro lo dica: capisco che il test di ipotesi non può rilevare quando il programma funziona correttamente. Può rilevare solo quando funziona in modo errato in un modo specifico. (E anche allora, il test "dovrebbe" fallire l'X% delle volte, a seconda del livello di significatività scelto ...)
Quindi, sto cercando di capire quali strumenti potrebbero essere appropriati. In particolare:
Posso generare tutti i dati casuali che voglio. Tutto quello che devo fare è lasciare il programma in esecuzione abbastanza a lungo. Quindi non sono limitato a nessuna dimensione specifica del campione.
Sono interessato a tecniche che producono un valore p. Quindi fissare un grafico e dire "sì, sembra un po 'lineare" non è un'opzione interessante. A meno che non ci sia un modo per mettere un numero duro sulla "traballanza" di un grafico. ;-)
Quello che so finora:
Ho visto tre tipi principali di test menzionati che sembrano applicabili: test chi-quadrato [Pearson], test di Kolmogorov-Smirnov e test di Anderson-Darling.
Sembra che un test chi-quadrato sia appropriato per distribuzioni discrete , mentre gli altri due sono più appropriati per distribuzioni continue . (?)
Varie fonti suggeriscono che il test AD è "migliore" del test KS, ma non riescono a entrare in ulteriori dettagli.
Alla fine, tutti questi test presumibilmente rilevano "modi diversi" di deviare dalla distribuzione nulla specificata. Ma non so ancora quali siano le differenze ... In sintesi, sto cercando una sorta di descrizione generale di dove ogni tipo di test è più applicabile e quali tipi di problemi rileva meglio.