Nel caso di regressione lineare semplice , puoi derivare lo stimatore meno quadrato tale che non devi conoscere per stimareβ 1 = Σ ( x i - ˉ x ) ( y i - ˉ y )β 0 β 1
Supponiamo di avere , come posso derivare senza stimare ? o non è possibile?β 1 β 2
Nel caso di regressione lineare semplice , puoi derivare lo stimatore meno quadrato tale che non devi conoscere per stimareβ 1 = Σ ( x i - ˉ x ) ( y i - ˉ y )β 0 β 1
Supponiamo di avere , come posso derivare senza stimare ? o non è possibile?β 1 β 2
Risposte:
La derivazione in notazione matriciale
A partire da , che è davvero lo stesso di
tutto si riduce a minimizzare :
Quindi minimizzare ci dà:
e ′ e = ( y - X b ) ′ ( y - X b )
e ′ e = y ′ y - 2 b ′ X ′ y + b ′ X ′ X b
Un'ultima cosa matematica, la condizione del secondo ordine per un minimo richiede che la matrice sia definita positiva. Questo requisito è soddisfatto nel caso in cui abbia il grado completo.X
La derivazione più accurata che attraversa tutte le fasi di maggiore approfondimento è disponibile all'indirizzo http://economictheoryblog.com/2015/02/19/ols_estimator/
*essere un +? Inoltre, non dovrebbe essere anziché per far corrispondere le dimensioni? b N
È possibile stimare solo un coefficiente in una regressione multipla senza stimare gli altri.
La stima di si ottiene rimuovendo gli effetti di dalle altre variabili e quindi regredendo i residui di rispetto ai residui di . Questo è spiegato e illustrato Come si controlla esattamente per altre variabili? e Come normalizzare (a) coefficiente di regressione? . La bellezza di questo approccio è che non richiede alcun calcolo, nessuna algebra lineare, può essere visualizzato usando solo geometria bidimensionale, è numericamente stabile e sfrutta solo un'idea fondamentale di regressione multipla: quella di eliminare (o "controllare per" ) gli effetti di una singola variabile.x 2 y x 1
Nel caso presente, la regressione multipla può essere eseguita utilizzando tre passaggi di regressione ordinaria:
Regress su (senza un termine costante!). Lascia che l'adattamento sia . La stima è Pertanto i residui sono Dal punto di vista geometrico, è ciò che resta di dopo la sottrazione della sua proiezione su .x 2 y = α y , 2 x 2 + δ α y , 2 = ∑ i y i x 2 iδ=y-αy,2x2. δyx2
Registra su (senza un termine costante). Lascia che l'adattamento sia . La stima èI residui sonoDal punto di vista geometrico, è ciò che resta di dopo la sottrazione della sua proiezione su .x 2 x 1 = α 1 , 2 x 2 + γ α 1 , 2 = ∑ i x 1 i x 2 iγ=x1-α1,2x2. γx1x2
Regress on (senza un termine costante). La stima èL'adattamento sarà . Geometricamente, è il componente di (che rappresenta con eliminato) nella direzione (che rappresenta con eliminato).γ ß 1 = Σ i δ i γ iδ= β 1γ+ε β 1δyx2γx1x2
Si noti che non è stato stimato. Può essere facilmente recuperato da ciò che è stato ottenuto finora (proprio come nel caso di regressione ordinaria si ottiene facilmente dalla stima della pendenza ). I sono i residui per la regressione bivariata di su e .β 0 β 1 εy x 1 x 2
Il parallelo con la regressione ordinaria è forte: i passaggi (1) e (2) sono analoghi alla sottrazione dei mezzi nella solita formula. Se lasci che sia un vettore di quelli, in realtà recupererai la solita formula.
Questo generalizza in modo ovvio per regressione con più di due variabili: stimare , regresso e separatamente contro tutte le altre variabili, poi regredire i residui contro l'altro. A quel punto nessuno degli altri coefficienti nella regressione multipla di è stato ancora stimato.yx1y
La stima dei minimi quadrati ordinari di è una funzione lineare della variabile di risposta . In poche parole, la stima OLS dei coefficienti, i , può essere scritta usando solo la variabile dipendente ( ) e le variabili indipendenti ( ).Y i X k i
Per spiegare questo fatto per un modello di regressione generale, è necessario comprendere una piccola algebra lineare. Supponiamo di voler stimare i coefficienti in un modello di regressione multipla,
dove per . La matrice di progettazione è una matrice cui ciascuna colonna contiene le osservazioni della variabile dipendente . Puoi trovare molte spiegazioni e derivazioni qui della formula utilizzata per calcolare i coefficienti stimati , che è
supponendo che esista l'inverso . I coefficienti stimati sono funzioni dei dati, non degli altri coefficienti stimati.
Una piccola nota minore sulla teoria vs. la pratica. Matematicamente possono essere stimati con la seguente formula:
dove sono i dati di input originali e è la variabile che vogliamo stimare. Ciò deriva dalla minimizzazione dell'errore. Lo proverò prima di fare un piccolo punto pratico.
Sia l'errore che la regressione lineare fa al punto . Poi:
L'errore al quadrato totale che commettiamo ora è:
Perché abbiamo un modello lineare sappiamo che:
Che può essere riscritto in notazione matrice come:
Lo sappiamo
Vogliamo ridurre al minimo l'errore quadrato totale, in modo che la seguente espressione sia il più piccola possibile
Questo è uguale a:
La riscrittura può sembrare confusa ma deriva dall'algebra lineare. Si noti che le matrici si comportano in modo simile alle variabili quando le stiamo moltiplicando per alcuni aspetti.
Vogliamo trovare i valori di modo che questa espressione sia il più piccola possibile. Dovremo differenziare e impostare la derivata uguale a zero. Usiamo la regola della catena qui.
Questo da:
Tale che infine:
Quindi matematicamente sembra che abbiamo trovato una soluzione. C'è un problema però, ed è che è molto difficile da calcolare se la matrice è molto grande. Ciò potrebbe dare problemi di precisione numerica. Un altro modo per trovare i valori ottimali per in questa situazione è utilizzare un metodo di discesa gradiente. La funzione che vogliamo ottimizzare è illimitata e convessa, quindi in pratica dovremmo utilizzare un metodo gradiente.
Una derivazione semplice può essere fatta semplicemente usando l'interpretazione geometrica di LR.
Regressione lineare può essere interpretata come la proiezione di sullo spazio colonna . Così, l'errore, è ortogonale allo spazio colonna .
Pertanto, il prodotto interno tra e l'errore deve essere 0, ovvero
Ciò implica che,
.
Ora lo stesso può essere fatto da:
(1) Proiettando su (errore ), ,
(2) Proiettando su (errore ), ,X 2 γ = X 1 - X 2 G G = ( X ' 1 x 1 ) - 1 X 1 X 2
e infine,
(3) Proiettando su ,y ß 1