Come faresti l'ANOVA bayesiana e la regressione in R? [chiuso]


14

Ho un set di dati abbastanza semplice composto da una variabile indipendente, una variabile dipendente e una variabile categoriale. Ho molta esperienza nell'esecuzione di test frequentisti come aov()e lm(), ma non riesco a capire come eseguire i loro equivalenti bayesiani in R.

Vorrei eseguire una regressione lineare bayesiana sulle prime due variabili e un'analisi bayesiana della varianza utilizzando la variabile categoriale come raggruppamenti, ma non riesco a trovare alcun semplice esempio su come eseguire questa operazione con R. Qualcuno può fornire un esempio di base per tutti e due? Inoltre, quali sono esattamente le statistiche di output create dall'analisi bayesiana e cosa esprimono?

Non sono molto esperto di statistiche, ma il consenso sembra essere che l'uso di test di base con valori p sia ora ritenuto un po 'fuorviante, e sto cercando di tenere il passo. Saluti.


2
Fare analisi dei dati bayesiani: un tutorial con R e BUG può essere un buon inizio. Esistono anche alcuni collegamenti per l'ANOVA bayesiana su questa domanda correlata: ANOVA a due fattori bayesiani . Non sono chiaro con la tua ultima frase, perché, invece di interpretare il valore p, generalmente ti consigliamo di usare la misura della dimensione dell'effetto .
chl

Risposte:


12

Se intendi fare molte statistiche bayesiane ti sarebbe utile imparare il linguaggio BUGS / JAGS, a cui puoi accedere in R tramite i pacchetti R2OpenBUGS o R2WinBUGS.

Tuttavia, per un breve esempio che non richiede la comprensione della sintassi BUGS, è possibile utilizzare il pacchetto "bayesm" che ha la funzione runiregGibbs per il campionamento dalla distribuzione posteriore. Ecco un esempio con dati simili a quello che descrivi .....

library(bayesm)

podwt <- structure(list(wt = c(1.76, 1.45, 1.03, 1.53, 2.34, 1.96, 1.79, 1.21, 0.49, 0.85, 1, 1.54, 1.01, 0.75, 2.11, 0.92), treat = structure(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L), .Label = c("I", "U"), class = "factor"), mus = c(4.15, 2.76, 1.77, 3.11, 4.65, 3.46, 3.75, 2.04, 1.25, 2.39, 2.54, 3.41, 1.27, 1.26, 3.87, 1.01)), .Names = c("wt", "treat", "mus"), row.names = c(NA, -16L), class = "data.frame")

# response
y1 <- podwt$wt

# First run a one-way anova

# Create the design matrix - need to insert a column of 1s
x1 <- cbind(matrix(1,nrow(podwt),1),podwt$treat)

# data for the Bayesian analysis
dt1 <- list(y=y1,X=x1)

# runiregGibbs uses a normal prior for the regression coefficients and 
# an inverse chi-squared prior for va

# mean of the normal prior. We have 2 estimates - 1 intercept 
# and 1 regression coefficient
betabar1 <- c(0,0)

# Pecision matrix for the normal prior. Again we have 2
A1 <- 0.01 * diag(2)
# note this is a very diffuse prior

# degrees of freedom for the inverse chi-square prior
n1 <- 3  

# scale parameter for the inverse chi-square prior
ssq1 <- var(y1) 

Prior1 <- list(betabar=betabar1, A=A1, nu=n1, ssq=ssq1)

# number of iterations of the Gibbs sampler
iter <- 10000  

# thinning/slicing parameter. 1 means we keep all all values
slice <- 1 

MCMC <- list(R=iter, keep=slice)

sim1 <- runiregGibbs(dt1, Prior1, MCMC)

plot(sim1$betadraw)
    plot(sim1$sigmasqdraw)

summary(sim1$betadraw)
    summary(sim1$sigmasqdraw)

# compare with maximum likelihood estimates:
fitpodwt <- lm(wt~treat, data=podwt)
summary(fitpodwt)
anova(fitpodwt)


# now for ordinary linear regression

x2 <- cbind(matrix(1,nrow(podwt),1),podwt$mus)

dt2 <- list(y=y1,X=x2)

sim2 <- runiregGibbs(dt1, Prior1, MCMC)

summary(sim1$betadraw)
    summary(sim1$sigmasqdraw)
plot(sim$betadraw)
    plot(sim$sigmasqdraw)

# compare with maximum likelihood estimates:
summary(lm(podwt$wt~mus,data=podwt))


# now with both variables

x3 <- cbind(matrix(1,nrow(podwt),1),podwt$treat,podwt$mus)

dt3 <- list(y=y1,X=x3)

# now we have an additional estimate so modify the prior accordingly

betabar1 <- c(0,0,0)
A1 <- 0.01 * diag(3)
Prior1 <- list(betabar=betabar1, A=A1, nu=n1, ssq=ssq1)

sim3 <- runiregGibbs(dt3, Prior1, MCMC)

plot(sim3$betadraw)
    plot(sim3$sigmasqdraw)
summary(sim3$betadraw)
    summary(sim3$sigmasqdraw)

# compare with maximum likelihood estimates:
summary(lm(podwt$wt~treat+mus,data=podwt))

Gli estratti dall'output sono: Anova: bayesiano:

Summary of Posterior Marginal Distributions 
Moments 
   mean std dev num se rel eff sam size
1  2.18    0.40 0.0042    0.99     9000
2 -0.55    0.25 0.0025    0.87     9000

Quantiles 
  2.5%    5%   50%   95%  97.5%
1  1.4  1.51  2.18  2.83  2.976
2 -1.1 -0.97 -0.55 -0.13 -0.041

lm ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   1.6338     0.1651   9.895 1.06e-07 ***
treatU       -0.5500     0.2335  -2.355   0.0336 *  

Regressione lineare semplice: bayesiana:

Summary of Posterior Marginal Distributions 
Moments 
  mean std dev  num se rel eff sam size
1 0.23   0.208 0.00222     1.0     4500
2 0.42   0.072 0.00082     1.2     4500

Quantiles
   2.5%    5%  50%  95% 97.5%
1 -0.18 -0.10 0.23 0.56  0.63
2  0.28  0.31 0.42 0.54  0.56

lm ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.23330    0.14272   1.635    0.124    
mus          0.42181    0.04931   8.554 6.23e-07 ***

Modello 2 covariate: bayesiano:

Summary of Posterior Marginal Distributions 
Moments 
   mean std dev  num se rel eff sam size
1  0.48   0.437 0.00520     1.3     4500
2 -0.12   0.184 0.00221     1.3     4500
3  0.40   0.083 0.00094     1.2     4500

Quantiles 
   2.5%    5%   50%  95% 97.5%
1 -0.41 -0.24  0.48 1.18  1.35
2 -0.48 -0.42 -0.12 0.18  0.25
3  0.23  0.26  0.40 0.53  0.56

lm ():

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.36242    0.19794   1.831   0.0901 .  
treatU      -0.11995    0.12688  -0.945   0.3617    
mus          0.39590    0.05658   6.997 9.39e-06 ***

da cui possiamo vedere che i risultati sono ampiamente comparabili, come previsto con questi modelli semplici e priori diffusi. Naturalmente vale anche la pena ispezionare i grafici diagnostici MCMC - densità posteriore, traccia traccia, correlazione automatica - per i quali ho anche fornito il codice sopra il quale (grafici non mostrati).


Quindi ho eseguito la regressione lineare contro due variabili indipendenti separatamente, entrambe le quali si comportano con valori p abbastanza buoni (~ 0,01) usando il test frequentista lm (). Con il test bayesiano, una di queste variabili produce risultati molto simili e significativi per l'intercettazione e la pendenza, ma per l'altra, che in realtà ha un valore p leggermente inferiore, il risultato bayesiano fornisce valori molto diversi (e statisticamente insignificanti). Hai idea di cosa potrebbe significare?
Barzov,

@Barzov dovresti pubblicare una nuova domanda e includere il tuo codice e (se possibile) i tuoi dati.
P Sellaz,


1

Questo è abbastanza conveniente con il LearnBayespacchetto.

fit <- lm(Sepal.Length ~ Species, data=iris, x=TRUE, y=TRUE)
library(LearnBayes)
posterior_sims <- blinreg(fit$y, fit$x, 50000)

La blinregfunzione usa un precedente non informativo per impostazione predefinita, e questo produce un'inferenza molto vicina a quella frequentista.

Stime :

> # frequentist 
> fit$coefficients
      (Intercept) Speciesversicolor  Speciesvirginica 
            5.006             0.930             1.582 
> # Bayesian
> colMeans(posterior_sims$beta)
      X(Intercept) XSpeciesversicolor  XSpeciesvirginica 
         5.0066682          0.9291718          1.5807763 

Intervalli di confidenza :

> # frequentist
> confint(fit)
                      2.5 %   97.5 %
(Intercept)       4.8621258 5.149874
Speciesversicolor 0.7265312 1.133469
Speciesvirginica  1.3785312 1.785469
> # Bayesian
> apply(posterior_sims$beta, 2, function(x) quantile(x, c(0.025, 0.975)))
      X(Intercept) XSpeciesversicolor XSpeciesvirginica
2.5%      4.862444          0.7249691          1.376319
97.5%     5.149735          1.1343101          1.783060
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.