In generale, non è possibile interpretare i coefficienti dall'output di una regressione probit (non almeno in modo standard). È necessario interpretare gli effetti marginali dei regressori, ovvero quanto cambia la probabilità (condizionale) della variabile di risultato quando si cambia il valore di un regressore, mantenendo costanti tutti gli altri regressori ad alcuni valori. Ciò è diverso dal caso di regressione lineare in cui si interpretano direttamente i coefficienti stimati. Questo perché nel caso della regressione lineare, i coefficienti di regressione sono gli effetti marginali .
Nella regressione probit, è necessario un ulteriore passaggio di calcolo per ottenere gli effetti marginali dopo aver calcolato l'adattamento della regressione probit.
Modelli di regressione lineare e probit
Regressione probit: ricorda che nel modello probit stai modellando la probabilità (condizionale) di un risultato "riuscito", ovvero ,
P [ Y i = 1 ∣ X 1 i , … , X K i ; β 0 , … , β K ] = Φ ( β 0 + K ∑ k = 1 β k X k i ) ( ⋅Yio= 1
P [Yio= 1 ∣X1i, ... ,XKio;β0, ... ,βK] = Φ ( β0+∑k =1KβKXKi)
dove è la funzione di distribuzione cumulativa della distribuzione normale standard. Questo in sostanza dice che, in base ai regressori, la probabilità che la variabile di risultato, Y iΦ ( ⋅ )Yio è 1, è una certa funzione di una combinazione lineare dei regressori.
Regressione lineare : confronta questo con il modello di regressione lineare, dove
E ( Yio∣ X1 i, ... , XKio; β0, ... , βK) = β0+ ∑k = 1KβKXk i
Effetti marginali
A parte il modello di regressione lineare, i coefficienti raramente hanno un'interpretazione diretta. In genere siamo interessati agli effetti del ceteris paribus delle modifiche nei regressori che incidono sulle caratteristiche della variabile di risultato. Questa è l'idea che misura gli effetti marginali.
- Regressione lineare : ora vorrei sapere quanto si muove la media della variabile di risultato quando sposto uno dei regressori
∂E ( Yio∣ X1 i, ... , XKio; β0, ... , βK)∂Xk i= βK
K
- Regressione probit: Tuttavia, è facile vedere che questo non è il caso della regressione probit
∂P [ Yio= 1 ∣ X1 i, ... , XKio; β0, ... , βK]∂Xk i= βKϕ ( β0+ ∑k = 1KβKXk i)
ϕ ( ⋅ ) è la normale funzione di densità di probabilità normale.
Come calcolare questa quantità e quali sono le scelte degli altri regressori che dovrebbero inserire questa formula? Per fortuna, Stata fornisce questo calcolo dopo una regressione probit e fornisce alcune impostazioni predefinite delle scelte degli altri regressori (non esiste un accordo universale su queste impostazioni predefinite).
Regressori discreti
Si noti che gran parte di quanto sopra si applica al caso dei regressori continui, poiché abbiamo utilizzato il calcolo. Nel caso di regressori discreti, è necessario utilizzare le modifiche discrete. Quindi, ad esempio, il cambiamento discreto in un regressoreXk i che prende i valori { 0 , 1 } è
ΔXk iP [ Yio= 1 ∣ X1 i, ... , XKio; β0, ... , βK]= βKϕ ( β0+ ∑l = 1k - 1βlXl i+ βK+ ∑l = k + 1KβlXl i)- βKϕ ( β0+ ∑l = 1k - 1βlXl i+ ∑l = k + 1KβlXl i)
Calcolo degli effetti marginali in Stata
Regressione probit: ecco un esempio di calcolo degli effetti marginali dopo una regressione probit in Stata.
webuse union
probit union age grade not_smsa south##c.year
margins, dydx(*)
Ecco l'output che otterrai dal margins
comando
. margins, dydx(*)
Average marginal effects Number of obs = 26200
Model VCE : OIM
Expression : Pr(union), predict()
dy/dx w.r.t. : age grade not_smsa 1.south year
------------------------------------------------------------------------------
| Delta-method
| dy/dx Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
age | .003442 .000844 4.08 0.000 .0017878 .0050963
grade | .0077673 .0010639 7.30 0.000 .0056822 .0098525
not_smsa | -.0375788 .0058753 -6.40 0.000 -.0490941 -.0260634
1.south | -.1054928 .0050851 -20.75 0.000 -.1154594 -.0955261
year | -.0017906 .0009195 -1.95 0.051 -.0035928 .0000115
------------------------------------------------------------------------------
Note: dy/dx for factor levels is the discrete change from the base level.
Questo può essere interpretato, ad esempio, che una unità cambia nella age
variabile, aumenta la probabilità dello stato del sindacato di 0,003442. Allo stesso modo, essendo da sud, diminuisce la probabilità di status sindacale di 0,1054928
Regressione lineare : come controllo finale, possiamo confermare che gli effetti marginali nel modello di regressione lineare sono gli stessi dei coefficienti di regressione (con una piccola torsione). Eseguendo la seguente regressione e calcolando gli effetti marginali dopo
sysuse auto, clear
regress mpg weight c.weight#c.weight foreign
margins, dydx(*)
ti restituisce solo i coefficienti di regressione. Si noti il fatto interessante che Stata calcola l' effetto marginale netto di un regressore includendo l'effetto attraverso i termini quadratici se inclusi nel modello.
. margins, dydx(*)
Average marginal effects Number of obs = 74
Model VCE : OLS
Expression : Linear prediction, predict()
dy/dx w.r.t. : weight foreign
------------------------------------------------------------------------------
| Delta-method
| dy/dx Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
weight | -.0069641 .0006314 -11.03 0.000 -.0082016 -.0057266
foreign | -2.2035 1.059246 -2.08 0.038 -4.279585 -.1274157
------------------------------------------------------------------------------