In termini di matrice i tuoi modelli sono nella solita forma . E[Y]=Xβ
Il primo modello rappresenta un elemento del primo gruppo per la riga in , corrispondente all'intercetta, l'indicatore per la categoria 2 e l'indicatore per la categoria 3. Rappresenta un elemento del secondo gruppo per la riga e un elemento del terzo gruppo per .(1,0,0)X(1,1,0)(1,0,1)
Il secondo modello utilizza invece le righe , e , rispettivamente.(1,1,12)=(1,1,1)(1,2,22)=(1,2,4)(1,3,32)=(1,3,9)
Chiamiamo le matrici del modello risultante e . Sono semplicemente correlati: le colonne di una sono combinazioni lineari delle colonne dell'altra. Ad esempio, lasciaX1X2
V=⎛⎝⎜100112138⎞⎠⎟.
Quindi da allora
⎛⎝⎜111010001⎞⎠⎟V=⎛⎝⎜111123149⎞⎠⎟,
ne consegue che
X1V=X2.
I modelli stessi sono pertanto correlati
X1β1=E[Y]=X2β2=(X1V)β2=X1(Vβ2).
Cioè, i coefficienti per il secondo modello devono essere correlati a quelli del primo viaβ2
β1=Vβ2.
La stessa relazione vale quindi per le stime dei minimi quadrati. Ciò dimostra che i modelli hanno attacchi identici : li esprimono semplicemente diversamente.
Poiché le prime colonne delle due matrici del modello sono uguali, qualsiasi tabella ANOVA che decompone la varianza tra la prima colonna e le colonne rimanenti non cambierà. Una tabella ANOVA che distingue tra la seconda e la terza colonna, tuttavia, dipenderà dalla modalità di codifica dei dati.
Dal punto di vista geometrico (e un po 'più astratto), il sottospazio tridimensionale di generato dalle colonne di coincide con il sottospazio generato dalle colonne di . Pertanto i modelli avranno accoppiamenti identici. Gli adattamenti sono espressi in modo diverso solo perché gli spazi sono descritti con due basi diverse. X 1 X 2R15X1X2
Per illustrare, qui ci sono dati come i tuoi (ma con risposte diverse) e le analisi corrispondenti come generate in R
.
set.seed(17)
D <- data.frame(group=rep(1:3, each=5), y=rnorm(3*5, rep(1:3, each=5), sd=2))
Montare i due modelli:
fit.1 <- lm(y ~ factor(group), D)
fit.2 <- lm(y ~ group + I(group^2), D)
Mostra le loro tabelle ANOVA:
anova(fit.1)
anova(fit.2)
L'output per il primo modello è
Df Sum Sq Mean Sq F value Pr(>F)
factor(group) 2 51.836 25.918 14.471 0.000634 ***
Residuals 12 21.492 1.791
Per il secondo modello lo è
Df Sum Sq Mean Sq F value Pr(>F)
group 1 50.816 50.816 28.3726 0.0001803 ***
I(group^2) 1 1.020 1.020 0.5694 0.4650488
Residuals 12 21.492 1.791
Puoi vedere che le somme residue dei quadrati sono le stesse. Aggiungendo le prime due righe nel secondo modello otterrete lo stesso DF e la somma dei quadrati, da cui è possibile calcolare lo stesso quadrato medio, valore F e valore p.
Infine, confrontiamo le stime dei coefficienti.
beta.1.hat <- coef(fit.1)
beta.2.hat <- coef(fit.2)
L'output è
(Intercept) factor(group)2 factor(group)3
0.4508762 2.8073697 4.5084944
(Intercept) group I(group^2)
-3.4627385 4.4667371 -0.5531225
Anche le intercettazioni sono completamente diverse. Questo perché le stime di qualsiasi variabile in una regressione multipla dipendono dalle stime di tutte le altre variabili (a meno che non siano tutte reciprocamente ortogonali, il che non è il caso di nessuno dei due modelli). Tuttavia, guarda cosa compie la moltiplicazione per :V
⎛⎝⎜100112138⎞⎠⎟⎛⎝⎜−3.46273854.4667371−0.5531225⎞⎠⎟=⎛⎝⎜0.45087622.80736974.5084944⎞⎠⎟.
Gli accoppiamenti sono davvero gli stessi dichiarati.