Sono abituato a conoscere i "gradi di libertà" come , dove hai il modello lineare \ mathbf {y} = \ mathbf {X} \ boldsymbol {\ beta} + \ boldsymbol {\ epsilon} con \ mathbf {y } \ in \ mathbb {R} ^ n , \ mathbf {X} \ in M_ {n \ times p} (\ mathbb {R}) la matrice di progettazione con rango r , \ boldsymbol {\ beta} \ in \ mathbb { R} ^ p , \ boldsymbol {\ epsilon} \ in \ mathbb {R} ^ n con \ boldsymbol {\ epsilon} \ sim \ mathcal {N} (\ mathbf {0}, \ sigma ^ 2 \ mathbf {I} _n) , \ sigma ^ 2> 0 .
Da ciò che ricordo delle statistiche elementari (vale a dire modelli pre-lineari con algebra lineare), i gradi di libertà per il test t di coppie abbinate è il numero di differenze meno . Quindi ciò implicherebbe che abbia il grado 1, forse. È corretto? In caso contrario, perché il grado di libertà per il test t delle coppie abbinate ?
Per capire il contesto, supponiamo di avere un modello a effetti misti
Vorrei fornire un intervallo di confidenza per .
Ho già dimostrato che è uno stimatore imparziale di , dove , e è definito in modo simile. La stima del punto è stata calcolata.
Ho già dimostrato che
Ora l'ultima parte è capire i gradi di libertà. Per questo passaggio, di solito cerco di trovare la matrice di progettazione - che ovviamente ha il grado 2 - ma ho la soluzione a questo problema e dice che i gradi di libertà sono .
Nel contesto della ricerca del rango di una matrice di design, perché i gradi di libertà sono ?
Modificato per aggiungere: forse utile in questa discussione è come viene definita la statistica del test. Supponiamo di avere un parametro parametro . In questo caso, (a meno che non mi manchi qualcosa del tutto). Stiamo essenzialmente eseguendo il test di ipotesi dove . Quindi, la statistica del test è data da che verrebbe testato contro una distribuzione centrale con