Logica dietro il test F ANOVA in semplice regressione lineare


17


Sto cercando di comprendere la logica alla base del test F ANOVA nell'analisi di regressione lineare semplice. La domanda che ho è la seguente. Quando il valore F, ovvero MSR/MSEè grande, accettiamo il modello come significativo. Qual è la logica dietro questo?


@ Can'tTell Puoi trovare aiuto sulla formattazione qui: stats.stackexchange.com/editing-help

Risposte:


21

Nel caso più semplice, quando si ha un solo predittore (regressione semplice), dire , il test F indica se l'inclusione di X 1 spiega una parte maggiore della varianza osservata in YX1FX1Y rispetto al modello nullo (solo intercettazione) . L'idea è quindi di verificare se la varianza spiegata aggiunta (varianza totale, TSS, varianza residua meno, RSS) è abbastanza grande da essere considerata una "quantità significativa". Stiamo qui confrontando un modello con un predittore, o variabile esplicativa, con una linea di base che è solo "rumore" (nient'altro che la media media).

Allo stesso modo, puoi calcolare una statistica in un'impostazione di regressione multipla: in questo caso, equivale a un test di tutti i predittori inclusi nel modello, che sotto il framework HT significa che ci chiediamo se qualcuno di essi sia utile nel prevedere la risposta variabile. Questo è il motivo per cui potresti incontrare situazioni in cui il test F per l'intero modello è significativo mentre alcuni dei t o zFFtz test associati a ciascun coefficiente di regressione non lo sono.

La statistica sembraF

F=(TSSRSS)/(p1)RSS/(np),

dove è il numero di parametri del modello e n il numero di osservazioni. Questa quantità dovrebbe essere riferita ad una distribuzione F p - 1 , n - p per un valore critico o p . Si applica anche al modello di regressione semplice e ovviamente presenta una certa analogia con il classico quadro ANOVA.pnFp1,npp

Nota a margine. Quando hai più di un predittore, allora potresti chiederti se considerare solo un sottoinsieme di quei predittori "riduce" la qualità dell'adattamento del modello. Ciò corrisponde a una situazione in cui consideriamo i modelli nidificati . Questa è esattamente la stessa situazione di quelle sopra, in cui confrontiamo un dato modello di regressione con un modello nullo (nessun predittore incluso). Al fine di valutare la riduzione della varianza spiegata, possiamo confrontare la somma residua dei quadrati (RSS) di entrambi i modelli (ovvero, ciò che resta inspiegabile una volta che si tiene conto dell'effetto dei predittori presenti nel modello). Lasciate che e M 1 denotino il modello base (con pM0M1pparametri) e un modello con un predittore aggiuntivo ( parametri ), quindi se RSS M 1 - RSS M 0 è piccolo, considereremmo che il modello più piccolo funziona bene come quello più grande. Una buona statistica da usare sarebbe il rapporto di tali SS, ( RSS M 1 - RSS M 0 ) / RSS M 0 , ponderato per i loro gradi di libertà ( p - q per il numeratore, e n - pq=p+1RSSM1RSSM0(RSSM1RSSM0)/RSSM0pqnp per il denominatore). Come già detto, si può dimostrare che questa quantità segue una F (o Fisher-Snedecor) con gradi di libertà e n - p . Se la F osservata è maggiore del corrispondente F quantile in un dato α (tipicamente, α = 0,05 ), concluderemmo che il modello più grande fa un "lavoro migliore". (Questo non implica affatto che il modello sia corretto, da un punto di vista pratico!)pqnpFFαα=0.05

Una generalizzazione dell'idea sopra è il test del rapporto di verosimiglianza .

Se stai usando R, puoi giocare con i concetti sopra come questo:

df <- transform(X <- as.data.frame(replicate(2, rnorm(100))), 
                                   y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df))         # "ANOVA view"
summary(lm(y ~ V1, df))       # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0)               # test of V2

@chl - Prima di tutto, bella risposta! Questo può giustificare una sua domanda, quindi fammi sapere ... ma le descrizioni che ho letto sulle tabelle ANOVA per i modelli di regressione in genere si riferiscono a tre righe nella tabella: predittori, errori e totale. Tuttavia, la anova()funzione in R restituisce una singola riga per ciascun predittore nel modello. Ad esempio, anova(lm0)sopra restituisce una riga per V1, V2e Residuals(e senza totale). Pertanto, otteniamo due statistiche F * per questo modello. In che modo questo cambia l'interpretazione della statistica F * riportata nella tabella ANOVA?
Chase,

@Chase Sì, anche la tabella ANOVA che ho in mente è organizzata in questo modo. Sentiti libero di porre la domanda; Mi piacerebbe sapere cosa ne pensano gli altri utenti. In genere lo uso anova()per il confronto GLM. Se applicato a un oggetto lmo aov, mostra effetti separati (SS) per ciascun termine nel modello e non mostra TSS. (Ero solito applicarlo al contrario, vale a dire dopo aver adattato un ANOVA aov(), posso usare summary.lm()per avere un'idea dei contrasti del trattamento.) Tuttavia, ci sono problemi sottili tra summary.lm()e summary.aov(), in particolare legati all'adattamento sequenziale.
chl

@Chase Ho appena riscoperto questa simpatica risposta di @Gavin sull'interpretazione di R's lm () output .
chl

@chl - Un po 'di nitpicking da parte mia. E 'una bella risposta circa l' intuizione dietro l'F-test, e come si "va nella giusta direzione". Ma non spiega la logica del perché dovresti scegliere questo particolare test. Ad esempio, perché non dovremmo usare la statistica PRESS? Si è accennato alla likelihood ratio - che ha una giustificazione logica - quindi la sua applicabilità a tutti i modelli, a differenza del F-test.
Probislogic

@probabilityislogic Buon punto. La mia idea era originariamente quella di mostrare la logica alla base del confronto tra modelli, di cui il modello di regressione semplice è solo un caso particolare (rispetto al modello "molto nullo"), che motiva anche la nota rapida su LRT. Sono d'accordo con te, se lavoriamo sulla falsariga di un approccio Neyman-Pearson puro per HT. Tuttavia, pensavo principalmente in termini di Teoria degli LM, in cui le SS hanno un'interpretazione geometrica diretta e dove il confronto tra modelli o il singolo test F per un ANOVA a senso unico (...)
chl
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.