Domande taggate «linear-model»

Si riferisce a qualsiasi modello in cui una variabile casuale è correlata a una o più variabili casuali da una funzione che è lineare in un numero finito di parametri.

3
L'assunzione di linearità nella regressione lineare è semplicemente una definizione di
Sto rivedendo la regressione lineare. Il libro di testo di Greene afferma: Ora, naturalmente, ci saranno altre ipotesi sul modello di regressione lineare, come E(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0 . Questa assunzione combinata con l'assunzione di linearità (che in effetti definisce ϵϵ\epsilon ), mette la struttura sul modello. Tuttavia, l'assunto di linearità di per …




1
Perché Anova () e drop1 () hanno fornito risposte diverse per i GLMM?
Ho un GLMM del modulo: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Quando uso drop1(model, test="Chi"), ottengo risultati diversi rispetto a quelli che utilizzo Anova(model, type="III")dal pacchetto auto o summary(model). Questi ultimi due danno le stesse risposte. Usando un mucchio di dati fabbricati, …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 


2
Nella regressione lineare, perché dovremmo includere termini quadratici quando siamo interessati solo a termini di interazione?
Supponiamo che io sia interessato a un modello di regressione lineare, per , perché vorrei vedere se un'interazione tra le due covariate ha un effetto su Y.Yio= β0+ β1X1+ β2X2+ β3X1X2Yi=β0+β1x1+β2x2+β3x1x2Y_i = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 Nelle note di un corso per professori (con cui non ho …




1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


1
Termine di varianza nella decomposizione bias-varianza della regressione lineare
In 'Gli elementi di apprendimento statistico', l'espressione di bias-varianza decomposizione lineare modello figura come dove è la funzione target effettiva,Er r ( x0) = σ2ε+ E[ f( x0) - Ef^( x0) ]2+ | | h (x0) | |2σ2ε,Err(X0)=σε2+E[f(X0)-Ef^(X0)]2+||h(X0)||2σε2,Err(x_0)=\sigma_\epsilon^2+E[f(x_0)-E\hat f(x_0)]^2+||h(x_0)||^2\sigma_\epsilon^2,f( x0)f(X0)f(x_0)σ2εσε2 \sigma_\epsilon^2 è la varianza dell'errore casuale nel modello e è …

1
Errori normalmente distribuiti e teorema del limite centrale
Nell'economia introduttiva di Wooldridge c'è una citazione: L'argomento che giustifica la distribuzione normale degli errori di solito esegue qualcosa del genere: poiché la somma di molti diversi fattori non osservati che influenzano , possiamo invocare il teorema del limite centrale per concludere che una distribuzione normale approssimativa.uuuyyyuuu Questa citazione si …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.