Usando lm per il test della proporzione di 2 campioni


12

Ho usato modelli lineari per eseguire test di proporzione a 2 campioni per un po ', ma ho capito che potrebbe non essere del tutto corretto. Sembra che l'uso di un modello lineare generalizzato con un collegamento binomiale + identità identifichi esattamente i risultati del test della proporzione di 2 campioni non raggruppati. Tuttavia, l'uso di un modello lineare (o glm con famiglia gaussiana) fornisce un risultato leggermente diverso. Sto razionalizzando che ciò potrebbe essere dovuto al modo in cui R risolve glm per famiglie binomiali vs gaussiane, ma potrebbe esserci un'altra causa?

## prop.test gives pooled 2-sample proportion result
## glm w/ binomial family gives unpooled 2-sample proportion result
## lm and glm w/ gaussian family give unknown result

library(dplyr)
library(broom)
set.seed(12345)

## set up dataframe -------------------------
n_A <- 5000
n_B <- 5000

outcome <- rbinom(
  n = n_A + n_B,
  size = 1,
  prob = 0.5
)
treatment <- c(
  rep("A", n_A),
  rep("B", n_B)
)

df <- tbl_df(data.frame(outcome = outcome, treatment = treatment))


## by hand, 2-sample prop tests ---------------------------------------------
p_A <- sum(df$outcome[df$treatment == "A"])/n_A
p_B <- sum(df$outcome[df$treatment == "B"])/n_B

p_pooled <- sum(df$outcome)/(n_A + n_B)
z_pooled <- (p_B - p_A) / sqrt( p_pooled * (1 - p_pooled) * (1/n_A + 1/n_B) )
pvalue_pooled <- 2*(1-pnorm(abs(z_pooled)))

z_unpooled <- (p_B - p_A) / sqrt( (p_A * (1 - p_A))/n_A + (p_B * (1 - p_B))/n_B )
pvalue_unpooled <- 2*(1-pnorm(abs(z_unpooled)))


## using prop.test --------------------------------------
res_prop_test <- tidy(prop.test(
  x = c(sum(df$outcome[df$treatment == "A"]), 
        sum(df$outcome[df$treatment == "B"])),
  n = c(n_A, n_B),
  correct = FALSE
))
res_prop_test # same as pvalue_pooled
all.equal(res_prop_test$p.value, pvalue_pooled)
# [1] TRUE


# using glm with identity link -----------------------------------
res_glm_binomial <- df %>%
  do(tidy(glm(outcome ~ treatment, family = binomial(link = "identity")))) %>%
  filter(term == "treatmentB")
res_glm_binomial # same as p_unpooled
all.equal(res_glm_binomial$p.value, pvalue_unpooled)
# [1] TRUE


## glm and lm gaussian --------------------------------

res_glm <- df %>%
  do(tidy(glm(outcome ~ treatment))) %>%
  filter(term == "treatmentB")
res_glm 
all.equal(res_glm$p.value, pvalue_unpooled)
all.equal(res_glm$p.value, pvalue_pooled)

res_lm <- df %>%
  do(tidy(lm(outcome ~ treatment))) %>% 
  filter(term == "treatmentB")
res_lm
all.equal(res_lm$p.value, pvalue_unpooled)
all.equal(res_lm$p.value, pvalue_pooled)

all.equal(res_lm$p.value, res_glm$p.value)
# [1] TRUE

Risposte:


8

Non ha a che fare con il modo in cui risolvono i problemi di ottimizzazione che corrispondono all'adattamento dei modelli, ma con gli attuali problemi di ottimizzazione posti dai modelli.

In particolare, in campioni di grandi dimensioni, è possibile considerarlo efficacemente confrontando due problemi dei minimi quadrati ponderati

Il modello lineare ( lm) si presume (quando non ponderato) che la varianza delle proporzioni è costante. La glm presuppone che la varianza delle proporzioni derivi dall'ipotesi binomiale . In questo modo i punti dati vengono ponderati in modo diverso, e quindi si arriva a stime leggermente diverse * e alla diversa varianza delle differenze.Var(p^)=Var(X/n)=p(1p)/n

* almeno in alcune situazioni, sebbene non necessariamente in un confronto diretto delle proporzioni


0

In termini di calcolo, confrontare l'errore standard del coefficiente di trattamento B per lm rispetto al glm binomiale. Hai la formula per l'errore standard del coefficiente di trattamento B nel glm binomiale (il denominatore di z_unpooled). L'errore standard del coefficiente di trattamento B nello standard lm è (SE_lm):

    test = lm(outcome ~ treatment, data = df)
    treat_B =  as.numeric(df$treatment == "B")
    SE_lm = sqrt( sum(test$residuals^2)/(n_A+n_B-2) / 
              sum((treat_B - mean(treat_B))^2))

Vedi questo post per una derivazione, l'unica differenza è che qui si trova l'errore di esempio invece di (ovvero sottrarre 2 da per i gradi di libertà persi). Senza quello , gli errori standard glm binomiale e lm sembrano effettivamente corrispondere quando .σ2nA+nB2nA=nB

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.