Domande taggate «least-squares»

Si riferisce a una tecnica di stima generale che seleziona il valore del parametro per ridurre al minimo la differenza quadrata tra due quantità, come il valore osservato di una variabile e il valore atteso di tale osservazione condizionato dal valore del parametro. I modelli lineari gaussiani sono adattati da minimi quadrati e minimi quadrati è l'idea alla base dell'uso dell'errore quadratico medio (MSE) come modo di valutare uno stimatore.

2
Riferimenti online che introducono a OLS
Ho iniziato a studiare gli stimatori dei minimi quadrati ordinari e sono ancora all'inizio. Ho già acquistato alcuni libri di econometria ma non ho trovato nulla online. Quindi mi chiedevo se esiste un sito Web, una homepage o altre risorse online che spiegano gli stimatori dei minimi quadrati in modo …

3
Quando i minimi quadrati sarebbero una cattiva idea?
Se ho un modello di regressione: dove e ,Y= Xβ+ εY=Xβ+ε Y = X\beta + \varepsilon V [ε]=Id∈ Rn × nV[ε]=Id∈Rn×n\mathbb{V}[\varepsilon] = Id \in \mathcal{R} ^{n \times n}E [ε]=(0,…,0)E[ε]=(0,…,0)\mathbb{E}[\varepsilon]=(0, \ldots , 0) quando usare , lo stimatore ordinario dei minimi quadrati di , sarebbe una cattiva scelta per uno stimatore?βOLSβOLS\beta_{\text{OLS}}ββ\beta …


3
Calcolo dei valori di p in minimi quadrati vincolati (non negativi)
Ho usato Matlab per eseguire minimi quadrati non vincolati (minimi quadrati ordinari) e produce automaticamente i coefficienti, le statistiche di test e i valori p. La mia domanda è, quando si eseguono minimi quadrati vincolati (coefficienti strettamente non negativi), si ottengono solo i coefficienti, SENZA statistiche di test, valori p. …


2
Perché la pendenza è sempre esattamente 1 quando si regrediscono gli errori sui residui usando OLS?
Stavo sperimentando la relazione tra gli errori e i residui usando alcune semplici simulazioni in R. Una cosa che ho scoperto è che, indipendentemente dalla dimensione del campione o dalla varianza dell'errore, ottengo sempre esattamente per la pendenza quando si adatta il modello111 errors∼β0+β1×residualserrors∼β0+β1×residuals {\rm errors} \sim \beta_0 + \beta_1 …


2
L'indipendenza media condizionale implica imparzialità e coerenza dello stimatore OLS
Considera il seguente modello di regressione multipla:Y=Xβ+Zδ+U.(1)(1)Y=Xβ+Zδ+U.Y=X\beta+Z\delta+U.\tag{1} Qui YYY è un vettore di colonna n×1n×1n\times 1 ; Matrice XXX a n×(k+1)n×(k+1)n\times (k+1) ; ββ\beta a (k+1)×1(k+1)×1(k+1)\times 1 colonna vettore; ZZZ a n×ln×ln\times l matrice; δδ\delta a l×1l×1l\times 1 colonna vettore; e UUU , il termine di errore, un vettore di …


1
Come posso incorporare un valore anomalo innovativo all'osservazione 48 nel mio modello ARIMA?
Sto lavorando su un set di dati. Dopo aver usato alcune tecniche di identificazione del modello, sono uscito con un modello ARIMA (0,2,1). Ho usato la detectIOfunzione nel pacchetto TSAin R per rilevare un valore anomalo innovativo (IO) alla 48a osservazione del mio set di dati originale. Come posso incorporare …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
relazione tra
Una domanda basilare riguardante la delle regressioni OLSR2R2R^2 eseguiamo la regressione OLS y ~ x1, abbiamo un , diciamo 0.3R2R2R^2 eseguiamo la regressione OLS y ~ x2, abbiamo un'altra , diciamo 0.4R2R2R^2 ora eseguiamo una regressione y ~ x1 + x2, quale valore può essere R al quadrato di questa …


4
Modello di storia degli eventi a tempo discreto (Sopravvivenza) in R
Sto cercando di adattare un modello a tempo discreto in R, ma non sono sicuro di come farlo. Ho letto che puoi organizzare la variabile dipendente in diverse righe, una per ogni osservazione temporale e utilizzare la glmfunzione con un collegamento logit o cloglog. In questo senso, ho tre colonne: …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.