Domande taggate «mse»

MSE sta per Mean Squared Error. È una misura della performance di una stima o previsione, uguale alla differenza quadratica media tra i valori osservati ei valori stimati / previsti.

7
Esempi in cui il metodo dei momenti può battere la massima probabilità in piccoli campioni?
Gli stimatori della massima verosimiglianza (MLE) sono asintoticamente efficienti; vediamo il risultato pratico in quanto spesso fanno meglio delle stime del metodo dei momenti (MoM) (quando differiscono), anche a campioni di piccole dimensioni Qui "meglio di" significa nel senso che in genere hanno una varianza minore quando entrambi sono imparziali …

1
Come interpretare le misure di errore?
Sto eseguendo la classificazione in Weka per un determinato set di dati e ho notato che se sto cercando di prevedere un valore nominale, l'output mostra in modo specifico i valori previsti correttamente e in modo errato. Tuttavia, ora lo sto eseguendo per un attributo numerico e l'output è: Correlation …

3
Errore quadratico medio e somma dei quadrati residua
Guardando le definizioni di Wikipedia di: Errore al quadrato medio (MSE) Somma dei quadrati residua (RSS) Mi sembra quello MSE = 1NRSS = 1N∑ ( fio- yio)2MSE=1NRSS=1N∑(fi−yi)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 dove NNN è colui numero di campioni e fiofif_i è la nostra stima yioyiy_i . …
31 residuals  mse 

3

1
I gradi di libertà possono essere un numero non intero?
Quando uso GAM, mi dà DF residuo è (ultima riga nel codice). Cosa significa? Andando oltre l'esempio GAM, in generale, il numero di gradi di libertà può essere un numero non intero?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 




3
Perché utilizzare una certa misura dell'errore di previsione (ad es. MAD) anziché un'altra (ad es. MSE)?
MAD = Deviazione assoluta media MSE = Errore quadrato medio Ho visto suggerimenti da vari luoghi che MSE viene utilizzato nonostante alcune qualità indesiderabili (ad esempio http://www.stat.nus.edu.sg/~staxyc/T12.pdf , che afferma a p8 "Si ritiene comunemente che MAD è un criterio migliore di MSE. Tuttavia, matematicamente MSE è più conveniente di …
15 forecasting  error  mse  mae 


2
Teorema di Gauss-Markov: BLU e OLS
Sto leggendo il teorema di Guass-Markov su Wikipedia , e speravo che qualcuno potesse aiutarmi a capire il punto principale del teorema. Supponiamo che un modello lineare, in forma di matrice, sia dato da: e stiamo cercando il BLU, .y=Xβ+ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta In base a ciò …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.