Come sottolineato prima in questo e in altri thread: (1) Il test di Durbin-Watson non è inconcludente. Solo i limiti suggeriti inizialmente da Durbin e Watson erano perché la distribuzione precisa dipende dalla matrice del regressore osservata. Tuttavia, questo è abbastanza facile da affrontare nel software statistico / econometrico ormai. (2) Esistono generalizzazioni del test Durbin-Watson a ritardi maggiori. Quindi né l'incongruenza né la limitazione dei ritardi sono argomenti contro il test di Durbin-Watson.
Rispetto al test Wald della variabile dipendente ritardata, il test Durbin-Watson può avere una potenza maggiore in alcuni modelli. In particolare, se il modello contiene tendenze deterministiche o modelli stagionali, può essere meglio testare l'autocorrelazione nei residui (come fa il test di Durbin-Watson) rispetto all'inclusione della risposta ritardata (che non è ancora regolata per i modelli deterministici) . Di seguito includo una piccola simulazione R.
Un importante svantaggio del test Durbin-Watson è che non deve essere applicato a modelli che già contengono effetti autoregressivi. Pertanto, non è possibile verificare la rimanente autocorrelazione dopo averla parzialmente catturata in un modello autoregressivo. In quello scenario, la potenza del test di Durbin-Watson può ridursi completamente, mentre per il test di Breusch-Godfrey, ad esempio, non lo è. Il nostro libro "Applied Econometrics with R" ha un piccolo studio di simulazione che lo mostra nel capitolo "Programmazione della tua analisi", vedi http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
Per un set di dati con tendenza più errori autocorrelati, tuttavia, la potenza del test Durbin-Watson è maggiore rispetto a quella del test Breusch-Godfrey e anche più elevata rispetto al test Wald di effetto autoregressivo. Lo illustro per un semplice piccolo scenario in R. Traggo 50 osservazioni da un tale modello e calcolo i valori p per tutti e tre i test:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Quindi possiamo simulare 1000 valori p per tutti e tre i modelli:
set.seed(1)
p <- t(replicate(1000, pvals()))
Il test Durbin-Watson porta ai valori p medi più bassi
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
e la massima potenza al livello di significatività del 5%:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248