Informazioni fuori dalla matrice del cappello per la regressione logistica


12

Mi è chiaro, e ben spiegato su più siti, quali informazioni i valori sulla diagonale della matrice del cappello forniscono per la regressione lineare.

La matrice del cappello di un modello di regressione logistica è meno chiara per me. È identico alle informazioni che ottieni dalla matrice del cappello applicando la regressione lineare? Questa è la definizione della matrice del cappello che ho trovato su un altro argomento del CV (fonte 1):

H=VX(XVX)1XV

con X il vettore delle variabili predittive e V è una matrice diagonale con (π(1π)) .

In altre parole, è anche vero che il valore particolare della matrice del cappello di un'osservazione presenta anche la posizione delle covariate nello spazio della covariata e non ha nulla a che fare con il valore finale di quell'osservazione?

Questo è scritto nel libro "Analisi dei dati categorici" di Agresti:

Maggiore è la leva di un'osservazione, maggiore è la sua potenziale influenza sull'adattamento. Come nella regressione ordinaria, le leve cadono tra 0 e 1 e si sommano al numero di parametri del modello. A differenza della normale regressione, i valori del cappello dipendono dall'adattamento e dalla matrice del modello e i punti che hanno valori predittivi estremi non devono necessariamente avere un effetto leva elevato.

Quindi, fuori da questa definizione, sembra che non possiamo usarlo mentre lo usiamo nella normale regressione lineare?

Fonte 1: Come calcolare la matrice hat per la regressione logistica in R?

Risposte:


13

Vorrei cambiare un po 'la notazione e scrivere la matrice del cappello come dove è una matrice simmetrica diagonale con elementi generali . Indica come gruppi di individui con lo stesso valore di covariata . È possibile ottenere l' elemento diagonale ( ) della matrice cappello come Quindi la somma di fornisce il numero di parametri come nella regressione lineare. Ora alla tua domanda:

H=V12X(XVX)1XV12
Vvj=mjπ(xj)[1π(xj)]mjx=xjjthhj
hj=mjπ(xj)[1π(xj)]xj(XVX)1xj
hj

L'interpretazione dei valori di leva nella matrice hat dipende dalla probabilità stimata . Se , puoi interpretare i valori di leva in modo simile come nel caso della regressione lineare, ovvero essere più lontano dalla media ti dà valori più alti. Se sei agli estremi della distribuzione di probabilità, questi valori di leva potrebbero non misurare più la distanza nello stesso senso. Questo è mostrato nella figura seguente presa da Hosmer e Lemeshow (2000):0,1 < π < 0,9π0.1<π<0.9

inserisci qui la descrizione dell'immagine

In questo caso i valori più estremi nello spazio della covariata possono darti la leva più piccola, il che è contrario al caso di regressione lineare. Il motivo è che la leva nella regressione lineare è una funzione monotonica, che non è vera per la regressione logistica non lineare. C'è una parte monotonicamente crescente nella formulazione sopra degli elementi diagonali della matrice del cappello che rappresenta la distanza dalla media. Questa è la parte , che potresti guardare se ti interessa solo la distanza in sé. La maggior parte delle statistiche diagnostiche per le regressioni logistiche utilizza la leva completa , quindi questa parte monotonica separata viene raramente considerata da sola. h jxj(XVX)1xjhj

Se vuoi approfondire questo argomento, dai un'occhiata al documento di Pregibon (1981), che ha derivato la matrice del cappello logistico, e al libro di Hosmer e Lemeshow (2000).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.