Probabilmente stai pensando al test due campioni tperché quello è spesso il primo posto in cui arriva la distribuzione t . Ma in realtà tutto un test t significa che la distribuzione di riferimento per la statistica test è una distribuzione t . Se Z∼N(0,1) e S2∼χ2d con Z e S2 indipendenti, quindi
ZS2/d−−−−√∼td
per definizione. Sto scrivendo questo per sottolineare che ladistribuzione
tè solo un nome che è stato dato alla distribuzione di questo rapporto perché emerge molto, e qualsiasi cosa di questo modulo avrà unadistribuzione
t. Per il test t con due campioni, questo rapporto appare perché sotto lo zero la differenza nelle medie è un gaussiano a media zero e la stima della varianza per i gaussiani indipendenti è un
χ2indipendente (l'indipendenza può essere mostrata tramite
il teorema di Basu che utilizza il fatto che la stima della varianza standard in un campione gaussiano è accessoria alla media della popolazione, mentre la media del campione è completa e sufficiente per la stessa quantità).
Con la regressione lineare otteniamo sostanzialmente la stessa cosa. In forma β^∼N(β,σ2(XTX)−1) . Sia S2j=(XTX)−1jj e si presupponga che i predittori X non siano casuali. Se sapessimo σ2 avremmo
β j - 0
β^j−0σSj∼N(0,1)
sotto il null
H0:βj=0quindi avremmo effettivamente un test Z. Ma una volta che stimiamo
σ2si finisce con una
χ2variabile casuale che, sotto le nostre ipotesi di normalità, risulta essere indipendente dalla nostra statistica
β je poi otteniamo una
tdistribuzione.
β^jt
Ecco i dettagli di ciò: assumiamo . Lasciar H = X ( X T X ) - 1 X T essere la matrice del cappello che abbiamo
‖ e ‖ 2 = ‖ ( I - H ) y ‖ 2 = y T ( I - H ) y . H è idempotente, quindi abbiamo il risultato davvero piacevole
y∼N(Xβ,σ2I)H=X(XTX)−1XT
∥e∥2=∥(I−H)y∥2=yT(I−H)y.
H
con parametro di non centralità
δ = β T X T ( I - H ) X β = β T ( X T X - X T X ) β = 0 , quindi in realtà questo è un
χ 2 centralecon
n - pyT(I−H)y/σ2∼χ2n−p(δ)
δ=βTXT(I−H)Xβ=βT(XTX−XTX)β=0χ2n−pgradi di libertà (questo è un caso speciale
del teorema di
Cochran ). Sto usando
per indicare il numero di colonne di
X , quindi se una colonna di
X fornisce l'intercettazione allora avremmo
p - 1 predittori di non intercettazione. Alcuni autori usano
p come numero di predittori di non intercettazione, quindi a volte potresti vedere qualcosa come
n - p - 1 nei gradi di libertà lì, ma è sempre la stessa cosa.
pXXp−1pn−p−1
Il risultato di ciò è che , così σ 2 : = 1E(eTe/σ2)=n−pfunziona come un grande estimatore diσ2.σ^2:=1n−peTeσ2
Ciò significa che
β j
è il rapporto tra un gaussiano standard e un chi quadrato diviso per i suoi gradi di libertà. Per finire, dobbiamo mostrare indipendenza e possiamo usare il seguente risultato:
β^jσ^Sj=β^jSjeTe/(n−p)−−−−−−−−−−√=β^jσSjeTeσ2(n−p)−−−−−−√
Risultato: per e le matrici A e B rispettivamente in R l × k e R m × k , A Z e B Z sono indipendenti se e solo se A Σ B T = 0 (questo è esercizio 58 (b) nel capitolo 1 della Statistica matematica di Jun Shao ).Z∼Nk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0
Abbiamo β = ( X T X ) - 1 X T y ed e = ( I - H ) y , dove y ~ N ( X β , σ 2 I ) . Questo significa
( X T X ) - 1 X T ⋅ σ 2 I ⋅ ( I - H ) T = σ 2β^=(XTX)−1XTye=(I−H)yy∼N(Xβ,σ2I)
in modo ß ⊥e, quindi ß ⊥ e T e.
(XTX)−1XT⋅σ2I⋅(I−H)T=σ2((XTX)−1XT−(XTX)−1XTX(XTX)−1XT)=0
β^⊥eβ^⊥eTe
Il risultato è ora sappiamo
β j
come desiderato (sotto tutte le ipotesi di cui sopra).
β^jσ^Sj∼tn−p
C=(AB)(l+m)×kAB
CZ=(AZBZ)∼N((AμBμ),CΣCT)
CΣCT=(AB)Σ(ATBT)=(AΣATBΣATAΣBTBΣBT).
CZAΣBT=0AZ B Z nel
CZ essere non correlato.
□