Domande taggate «elastic-net»

Un metodo di regolarizzazione per i modelli di regressione che combina le penalità del lazo e della regressione della cresta.

1
LARS vs discesa delle coordinate per il lazo
Quali sono i pro e i contro dell'utilizzo di LARS [1] rispetto all'utilizzo della discesa delle coordinate per l'adattamento della regressione lineare regolarizzata L1? Sono principalmente interessato agli aspetti prestazionali (i miei problemi tendono ad avere Ntra le centinaia di migliaia e p<20). Tuttavia, anche altre intuizioni sarebbero apprezzate. modifica: …

1
Differenze tra PROC Mixed e lme / lmer in R - gradi di libertà
Nota: questa domanda è una risposta, poiché la mia domanda precedente doveva essere cancellata per motivi legali. Confrontando PROC MIXED da SAS con la funzione lmedel nlmepacchetto in R, mi sono imbattuto in alcune differenze piuttosto confuse. Più specificamente, i gradi di libertà nei diversi test differiscono tra PROC MIXEDe …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 


3
Lazo vs. Lazo adattivo
LASSO e LASSO adattivo sono due cose diverse, giusto? (Per me le penalità sembrano diverse, ma sto solo controllando se mi manca qualcosa.) Quando parli generalmente di rete elastica, è il caso speciale LASSO o LASSO adattivo? Quale fa il pacchetto glmnet, a condizione che tu scelga alpha = 1? …



2
Perché la regressione della cresta non può fornire una migliore interpretabilità rispetto a LASSO?
Ho già un'idea dei pro e dei contro della regressione della cresta e del LASSO. Per LASSO, il termine di penalità L1 produrrà un vettore di coefficienti sparsi, che può essere visto come un metodo di selezione delle caratteristiche. Tuttavia, ci sono alcune limitazioni per LASSO. Se le funzionalità hanno …


1
Replica dei risultati per la regressione lineare glmnet utilizzando un ottimizzatore generico
Come afferma il titolo, sto cercando di replicare i risultati di glmnet linear usando l'ottimizzatore LBFGS della libreria lbfgs. Questo ottimizzatore ci consente di aggiungere un termine regolarizzatore L1 senza doversi preoccupare della differenziabilità, purché la nostra funzione obiettivo (senza il termine regolarizzatore L1) sia convessa. Il problema della regressione …

3
Confusione legata alla rete elastica
Stavo leggendo questo articolo relativo alla rete elastica. Dicono che usano la rete elastica perché se usiamo semplicemente Lasso tende a selezionare solo un predittore tra i predittori che sono altamente correlati. Ma non è questo ciò che vogliamo. Voglio dire, non ci salva dal problema della multicollinearità. Qualche suggerimento …


2
Calcola la curva ROC per i dati
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Qual è il modo corretto di scrivere la rete elastica?
Sono confuso sul modo corretto di scrivere la rete elastica. Dopo aver letto alcuni articoli di ricerca sembrano esserci tre forme 1) exp{ -λ1|βK| -λ2β2K}exp⁡{-λ1|βK|-λ2βK2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2) exp{ -(λ1|βK| +λ2β2K)σ2√}exp⁡{-(λ1|βK|+λ2βK2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3) exp{ -(λ1|βK| +λ2β2K)2σ2}exp⁡{-(λ1|βK|+λ2βK2)2σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Semplicemente non capisco il modo corretto di aggiungere σ2σ2\sigma^2. Una delle espressioni sopra è corretta?

1
Svantaggi della rete elastica rispetto al lazo?
Quali sono gli svantaggi dell'utilizzo della rete elastica rispetto al lazo. So che la rete elastica è in grado di selezionare gruppi di variabili quando sono altamente correlati. Non ha il problema di selezionare più di predittori quando . Considerando che il lazo si satura quando .nnnp≫np≫np \gg np≫np≫np \gg …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.