Se ho un set di dati con una classe positiva molto rara e eseguo il down-campionamento della classe negativa, quindi eseguo una regressione logistica, devo regolare i coefficienti di regressione per riflettere il fatto che ho cambiato la prevalenza della classe positiva?
Ad esempio, supponiamo che io abbia un set di dati con 4 variabili: Y, A, B e C. Y, A e B sono binari, C è continuo. Per 11.100 osservazioni Y = 0 e per 900 Y = 1:
set.seed(42)
n <- 12000
r <- 1/12
A <- sample(0:1, n, replace=TRUE)
B <- sample(0:1, n, replace=TRUE)
C <- rnorm(n)
Y <- ifelse(10 * A + 0.5 * B + 5 * C + rnorm(n)/10 > -5, 0, 1)
Adatto una regressione logistica per prevedere Y, dati A, B e C.
dat1 <- data.frame(Y, A, B, C)
mod1 <- glm(Y~., dat1, family=binomial)
Tuttavia, per risparmiare tempo ho potuto rimuovere 10.200 osservazioni non Y, dando 900 Y = 0 e 900 Y = 1:
require('caret')
dat2 <- downSample(data.frame(A, B, C), factor(Y), list=FALSE)
mod2 <- glm(Class~., dat2, family=binomial)
I coefficienti di regressione dei 2 modelli sembrano molto simili:
> coef(summary(mod1))
Estimate Std. Error z value Pr(>|z|)
(Intercept) -127.67782 20.619858 -6.191983 5.941186e-10
A -257.20668 41.650386 -6.175373 6.600728e-10
B -13.20966 2.231606 -5.919353 3.232109e-09
C -127.73597 20.630541 -6.191596 5.955818e-10
> coef(summary(mod2))
Estimate Std. Error z value Pr(>|z|)
(Intercept) -167.90178 59.126511 -2.83970391 0.004515542
A -246.59975 4059.733845 -0.06074284 0.951564016
B -16.93093 5.861286 -2.88860377 0.003869563
C -170.18735 59.516021 -2.85952165 0.004242805
Il che mi porta a credere che il down-sampling non abbia influenzato i coefficienti. Tuttavia, questo è un singolo esempio inventato, e preferirei saperlo con certezza.
mod2
), Pr(>|z|)
per A
è quasi 1. Non possiamo rifiutare l'ipotesi nulla che il coefficiente A
sia 0, quindi abbiamo perso una covariata che viene utilizzata in mod1
. Non è questa una differenza sostanziale?