Domande taggate «regression»

Tecniche per l'analisi della relazione tra una (o più) variabili "dipendenti" e variabili "indipendenti".

2
KKT contro formulazione non vincolata della regressione del lazo
La regressione penalizzata L1 (aka lazo) è presentata in due formulazioni. Lascia che le due funzioni obiettivo siano Q1=12||Y−Xβ||22Q2=12||Y−Xβ||22+λ||β||1.Q1=12||Y−Xβ||22Q2=12||Y−Xβ||22+λ||β||1. Q_1 = \frac{1}{2}||Y - X\beta||_2^2 \\ Q_2 =\frac{1}{2}||Y - X\beta||_2^2 + \lambda ||\beta||_1. Quindi le due diverse formulazioni sono argminβQ1argminβQ1 \text{argmin}_\beta \; Q_1 soggetto a ||β||1≤t,||β||1≤t, ||\beta||_1 \leq t, e, equivalentemente …

2
Trasmissione di un modello lineare multivariato come regressione multipla
Riformare un modello di regressione lineare multivariata come regressione lineare multipla è del tutto equivalente? Non mi riferisco semplicemente correre regressioni separate.ttt Ho letto questo in alcuni punti (Bayesian Data Analysis - Gelman et al. E Multivariate Old School - Marden) che un modello lineare multivariato può essere facilmente parametrizzato …








4
Valori medi di correlazione
Diciamo che collaudo come la variabile Ydipende dalla variabile Xin diverse condizioni sperimentali e ottengo il seguente grafico: Le linee tratteggiate nel grafico sopra rappresentano la regressione lineare per ciascuna serie di dati (configurazione sperimentale) e i numeri nella legenda indicano la correlazione di Pearson di ciascuna serie di dati. …


4
Quali sono i valori corretti per precisione e richiamo nei casi limite?
La precisione è definita come: p = true positives / (true positives + false positives) È corretto che, come true positivese false positivesavvicinarsi a 0, la precisione si avvicina a 1? Stessa domanda da ricordare: r = true positives / (true positives + false negatives) Attualmente sto implementando un test …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 


2
Che senso ha fare OLS dopo la selezione delle variabili LASSO?
Recentemente ho scoperto che nella letteratura di econometria applicata, quando si affrontano i problemi di selezione delle caratteristiche, non è raro eseguire LASSO seguito da una regressione OLS usando le variabili selezionate. Mi chiedevo come possiamo qualificare la validità di tale procedura. Causerà problemi come le variabili omesse? Qualche prova …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.