Dimensioni dell'effetto di regressione lineare quando si utilizzano variabili trasformate


9

Quando si esegue la regressione lineare, è spesso utile eseguire una trasformazione come la trasformazione del log per la variabile dipendente per ottenere una migliore conformazione della distribuzione normale. Spesso è anche utile ispezionare i beta dalla regressione per valutare meglio la dimensione dell'effetto / la reale rilevanza dei risultati.

Ciò solleva il problema che quando si utilizza, ad esempio, la trasformazione del log, le dimensioni dell'effetto saranno in scala logaritmica e mi è stato detto che a causa della non linearità della scala utilizzata, la retro-trasformazione di queste beta risulterà in valori non significativi che non hanno alcun utilizzo nel mondo reale.

Finora abbiamo generalmente eseguito una regressione lineare con variabili trasformate per ispezionarne il significato e quindi una regressione lineare con le variabili originali non trasformate per determinare la dimensione dell'effetto.

C'è un modo giusto / migliore per farlo? Per la maggior parte lavoriamo con i dati clinici, quindi un esempio di vita reale sarebbe quello di determinare come una determinata esposizione influisce su variabili continue quali altezza, peso o alcune misurazioni di laboratorio, e vorremmo concludere qualcosa come "l'esposizione A ha avuto l'effetto di peso crescente di 2 kg ".

Risposte:


5

Suggerirei che le trasformazioni non sono importanti per ottenere una distribuzione normale per i tuoi errori. La normalità non è un presupposto necessario. Se hai dati "sufficienti", entra in gioco il teorema del limite centrale e le tue stime standard diventano asintoticamente normali. In alternativa, è possibile utilizzare il bootstrap come mezzo non parametrico per stimare gli errori standard. (L'omoschedasticità, una varianza comune per le osservazioni tra le unità, è necessaria affinché gli errori standard siano corretti; opzioni robuste consentono l'eteroschedasticità).

Invece, le trasformazioni aiutano a garantire che un modello lineare sia appropriato. Per dare un'idea di ciò, consideriamo come possiamo interpretare i coefficienti nei modelli trasformati:

  • il risultato è unità, i predittori sono unità: un cambiamento di un'unità nel predittore porta a un cambiamento di unità beta nel risultato.
  • risultato in unità, predittore in unità di registro: una variazione dell'uno percento nel predittore porta a una variazione di beta / 100 unità nel risultato.
  • risultato in unità log, predittore in unità: una variazione di una unità nel predittore comporta una variazione beta x 100% del risultato.
  • risultato in unità di registro, predittore in unità di registro: una variazione dell'1 percento nel predittore comporta una variazione del beta percento nel risultato.

Se le trasformazioni sono necessarie per dare un senso al tuo modello (cioè, per mantenere la linearità), allora la stima da questo modello dovrebbe essere usata per l'inferenza. Una stima da un modello che non credi non è molto utile. Le interpretazioni di cui sopra possono essere molto utili per comprendere le stime di un modello trasformato e spesso possono essere più rilevanti per la domanda in corso. Ad esempio, agli economisti piace la formulazione log-log perché l'interpretazione della beta è un'elasticità, una misura importante in economia.

Aggiungo che la trasformazione posteriore non funziona perché l'aspettativa di una funzione non è la funzione dell'aspettativa; il registro del valore atteso di beta non è il valore atteso del registro di beta. Quindi, il tuo stimatore non è imparziale. Questo elimina anche gli errori standard.


2

RISPOSTA BREVE: assolutamente corretta, la trasformazione posteriore del valore beta non ha senso. Tuttavia, è possibile segnalare la non linearità come qualcosa del genere. "Se pesi 100 kg, mangiare due pezzi di torta al giorno aumenterà il tuo peso di circa 2 kg in una settimana. Tuttavia, se pesi 200 kg il tuo peso aumenterebbe di 2,5 kg. Vedi la figura 1 per una rappresentazione di questa relazione non lineare ( la figura 1 rappresenta un adattamento della curva rispetto ai dati non elaborati). "

RISPOSTA LUNGA:

La significatività del valore trasformato indietro varia ma, se eseguita correttamente, di solito ha un certo significato.

Se hai una regressione dei valori di log naturali su due predittori x con una beta di 0,13 e un'intercetta di 7,0, la trasformazione posteriore di 0,13 (1,14) è praticamente insignificante. È corretto. Tuttavia, la trasformazione posteriore di 7.13 sarà un valore che può essere interpretato con un certo significato. Potresti quindi sottrarre la trasformazione posteriore di 7.0 ed essere lasciato con un valore residuo che è il tuo effetto in una scala significativa (152.2). Se si desidera esaminare qualsiasi valore previsto, è necessario prima calcolarlo tutto nei valori di registro e quindi trasformarlo indietro. Questo dovrebbe essere fatto separatamente per ogni valore previsto e, se rappresentato graficamente, si tradurrebbe in una curva.

Questo è spesso ragionevole se la trasformazione ha un effetto relativamente piccolo sui dati. La trasformazione dei log dei tempi di reazione è un tipo di valore che può essere nuovamente trasformato. Quando è fatto correttamente, scoprirai che i valori sembrano vicini ai valori mediani facendo semplici calcoli sui dati grezzi.

Anche allora, bisogna stare attenti alle interazioni e alle non interazioni. I valori relativi variano in base alla scala. L'analisi è stata sensibile al valore del log mentre i valori trasformati all'indietro potrebbero mostrare diversi modelli che fanno sembrare che le interazioni non dovrebbero essere presenti o viceversa. In altre parole, puoi tornare indietro a trasformare le cose che apportano piccole modifiche ai dati finché stai attento.

Alcuni cambiamenti, come la trasformazione logistica della probabilità, possono avere impatti piuttosto massicci, specialmente vicino alla fine della scala. Un esempio di un posto che non dovresti mai trasformare indietro sono i grafici di interazione vicino alla fascia alta o bassa della probabilità.


2

La domanda è sugli effetti marginali (di X su Y), penso, non tanto sull'interpretazione dei singoli coefficienti. Come le persone hanno utilmente notato, queste sono solo a volte identificabili con una dimensione dell'effetto, ad esempio quando ci sono relazioni lineari e additive.

Se questo è l'obiettivo, il modo (concettualmente, se non praticamente) più semplice di pensare al problema sembrerebbe essere questo:

Per ottenere l'effetto marginale di X su Y in un modello di regressione normale lineare senza interazioni, puoi semplicemente guardare il coefficiente su X. Ma questo non è abbastanza poiché è stimato non noto. In ogni caso, ciò che si vuole veramente per gli effetti marginali è una specie di trama o di riepilogo che fornisce una previsione su Y per un intervallo di valori di X e una misura di incertezza. In genere si potrebbe desiderare la media Y prevista e un intervallo di confidenza, ma si potrebbero volere anche previsioni per la distribuzione condizionale completa di Y per una X. Tale distribuzione è più ampia della stima sigma del modello adattato perché tiene conto dell'incertezza sui coefficienti del modello .

Esistono varie soluzioni a forma chiusa per modelli semplici come questo. Ai fini attuali possiamo ignorarli e pensare invece più in generale a come ottenere quel grafico degli effetti marginali mediante simulazione, in modo da gestire modelli arbitrariamente complessi.

Supponiamo che tu voglia gli effetti della variazione di X sulla media di Y e sei felice di fissare tutte le altre variabili a valori significativi. Per ogni nuovo valore di X, prelevare un campione di dimensione B dalla distribuzione dei coefficienti del modello. Un modo semplice per farlo in R è assumere che sia normale con coef(model)matrice media e covarianza vcov(model). Calcola una nuova Y prevista per ogni serie di coefficienti e riassumi il lotto con un intervallo. Quindi passa al valore successivo di X.

Mi sembra che questo metodo non dovrebbe essere influenzato da nessuna trasformazione elaborata applicata a nessuna delle variabili, a condizione che tu le applichi anche (o loro inverse) in ogni fase di campionamento. Quindi, se il modello adattato ha log (X) come predittore, registra la tua nuova X prima di moltiplicarla per il coefficiente campionato. Se il modello adattato ha sqrt (Y) come variabile dipendente, allora quadrare ogni media prevista nel campione prima di riassumerli come intervallo.

In breve, più programmazione ma meno calcolo delle probabilità e di conseguenza effetti marginali clinicamente comprensibili. Questo "metodo" è talvolta riferito a CLARIFY nella letteratura di scienze politiche, ma è piuttosto generale.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.