Comprendo che il test Wald per i coefficienti di regressione si basa sulla seguente proprietà che detiene asintoticamente (ad esempio Wasserman (2006): All of Statistics , pagine 153, 214-215): Dove indica il coefficiente di regressione stimato, indica l'errore standard del coefficiente di regressione e è il valore di interesse ( è di solito 0 per verificare se il coefficiente è significativamente diverso da 0). Quindi il test size Wald è: rifiuta quandoβ^SE(β)β0β0αH0| W| >zα/2
Ma quando si esegue una regressione lineare con lm
in R, viene utilizzato un valore anziché un valore per verificare se i coefficienti di regressione differiscono significativamente da 0 (con summary.lm
). Inoltre, l'output di glm
in R talvolta fornisce - e talvolta valori come statistiche di test. Apparentemente, i valori vengono utilizzati quando si presume che il parametro di dispersione sia noto e valori t vengono utilizzati quando viene stimato il parametro di dispersione (vedere questo collegamento ).
Qualcuno potrebbe spiegare, perché a volte una distribuzione viene utilizzata per un test Wald anche se si presume che il rapporto tra il coefficiente e il suo errore standard sia distribuito come normale?
Modifica dopo aver risposto alla domanda
Questo post fornisce anche informazioni utili alla domanda.
lm
e glm
.