Questa risposta sottolinea la verifica della stimabilità. La proprietà varianza minima è di mia considerazione secondaria.
Per cominciare, riassumi le informazioni in termini di forma matriciale di un modello lineare come segue:
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
dove
E(ε)=0,Var(ε)=σ2I(per discutere di stimabilità, l'assunzione di sferità non è necessaria. Ma per discutere della proprietà di Gauss-Markov, dobbiamo assumere la sferità di
ε).
Se la matrice disegno è di rango pieno, allora il parametro originale β ammette un unico minimi quadrati Stima β = ( X ' X ) - 1 X ' Y . Di conseguenza, qualsiasi parametro φ , definita come una funzione lineare φ ( β ) di β è stimabili nel senso che può essere univocamente stimata dati tramite i minimi quadrati stimare β come φ = p ' β .Xββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
La sottigliezza sorge quando non è al massimo. Per avere una discussione approfondita, fissiamo alcune notazioni e termini prima di seguito (seguo la convenzione di The Free-Coordinate Free Approach to Linear Models , Sezione 4.8. Alcuni termini sembrano inutilmente tecnici). Inoltre, la discussione si applica al modello lineare generale Y = X β + ε con X ∈ R n × k e β ∈ R k .XY=Xβ+εX∈Rn×kβ∈Rk
- Una varietà di regressione è la raccolta di vettori medi poiché varia su R k :
M = { X β : β ∈ R k } .βRk
M={Xβ:β∈Rk}.
- Una funzione parametrica è una funzione lineare di β ,
ϕ ( β ) = p ′ β = p 1 β 1 + ⋯ + p k β k .ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
Come accennato in precedenza, quando , non tutte le funzioni parametriche ϕ ( β ) sono stimabili. Ma, aspetta, qual è la definizione del termine stimabile tecnicamente? Sembra difficile dare una definizione chiara senza disturbare una piccola algebra lineare. Una definizione, che ritengo sia la più intuitiva, è la seguente (dallo stesso riferimento di cui sopra):rank(X)<kϕ(β)
Definizione 1. Una funzione parametrica è stimabile se è determinata in modo univoco da X β nel senso che ϕ ( β 1 ) = ϕ ( β 2 ) ogni volta che β 1 , β 2 ∈ R k soddisfa X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
Interpretazione. La definizione di cui sopra stabilisce che la mappatura dal collettore di regressione allo spazio dei parametri di ϕ deve essere uno a uno, il che è garantito quando rank ( X ) = k (cioè, quando X stesso è uno a uno). Quando rango ( X ) < k , sappiamo che esiste β 1 ≠ β 2 tale che X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2. La definizione stimabile sopra in effetti esclude quei funzionali parametrici carenti strutturali che danno loro stessi valori diversi anche con lo stesso valore su , che non hanno senso naturalmente. D'altra parte, una funzione parametrica stimabile ϕ ( ⋅ ) consente il caso ϕ ( β 1 ) = ϕ ( β 2 ) con β 1 ≠ β 2 , purché sia soddisfatta la condizione X β 1 = X β 2 .Mϕ(⋅)ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
Esistono altre condizioni equivalenti per verificare la stimabilità di una funzione parametrica fornita nello stesso riferimento, Proposizione 8.4.
Dopo un'introduzione così dettagliata, torniamo alla tua domanda.
A. stesso non è stimabile per il motivo che rango ( X ) < 3 , che comporta X β 1 = X β 2 con β 1 ≠ β 2 . Sebbene la definizione di cui sopra sia data per i funzionali scalari, è facilmente generalizzabile ai funzionali a valori vettoriali.βrank(X)<3Xβ1=Xβ2β1≠β2
B. non è stimabile. Per intenderci, considera β 1 = ( 0 , 1 , 0 ) ′ e β 2 = ( 1 , 1 , 1 ) ′ , che dà X β 1 = X β 2 ma ϕ 1ϕ1(β)=θ1+θ3=(1,0,1)′ββ1=(0,1,0)′β2=(1,1,1)′Xβ1=Xβ2ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2.
C. è stimabile. Perché X β 1 = X β 2 implica banalmente θ ( 1 ) 1 - θ ( 1 ) 3 = θ ( 2 ) 1 - θ ( 2 ) 3 , cioè, ϕϕ2(β)=θ1−θ3=(1,0,−1)′βXβ1=Xβ2θ(1)1−θ(1)3=θ(2)1−θ(2)3ϕ2(β1)=ϕ2(β2).
D. ϕ3(β)=θ2=(0,1,0)′β is also estimable. The derivation from Xβ1=Xβ2 to ϕ3(β1)=ϕ3(β2) is also trivial.
After the estimability is verified, there is a theorem (Proposition 8.16, same reference) claims the Gauss-Markov property of ϕ(β). Based on that theorem, the second part of option C is incorrect. The best linear unbiased estimate is Y¯=(Y1+Y2+Y3+Y4)/4, by the theorem below.
Theorem. Let ϕ(β)=p′β be an estimable parametric functional, then its best linear unbiased estimate (aka, Gauss-Markov estimate) is ϕ(β^) for any solution β^ to the normal equations X′Xβ^=X′Y.
The proof goes as follows:
Proof. Straightforward calculation shows that the normal equations is
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
which, after simplification, is
⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
i.e., ϕ(β^)=Y¯.
Therefore, option D is the only correct answer.
Addendum: The connection of estimability and identifiability
When I was at school, a professor briefly mentioned that the estimability of the parametric functional ϕ corresponds to the model identifiability. I took this claim for granted then. However, the equivalance needs to be spelled out more explicitly.
According to A.C. Davison's monograph Statistical Models p.144,
Definition 2. A parametric model in which each parameter θ generates a different distribution is called identifiable.
For linear model (1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as
E[Y]=Xβ,β∈Rk.(2)
It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1≠β2 implies Xβ1≠Xβ2 (the word "distribution" in the original definition, naturally reduces to
"mean" under model (2).).
Now suppose that rank(X)<k and a given parametric functional ϕ(β)=p′β, how do we reconcile Definition 1 and Definition 2?
Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=p′β (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies p′β1=p′β2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).
Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.
To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1−θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3)′ as follows
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.
self-study
tag o qualcuno verrà e chiudi la tua domanda.