Quali sono i pro e i contro dell'utilizzo di LARS [1] rispetto all'utilizzo della discesa delle coordinate per l'adattamento della regressione lineare regolarizzata L1? Sono principalmente interessato agli aspetti prestazionali (i miei problemi tendono ad avere Ntra le centinaia di migliaia e p<20). Tuttavia, anche altre intuizioni sarebbero apprezzate. modifica: …
Nota: questa domanda è una risposta, poiché la mia domanda precedente doveva essere cancellata per motivi legali. Confrontando PROC MIXED da SAS con la funzione lmedel nlmepacchetto in R, mi sono imbattuto in alcune differenze piuttosto confuse. Più specificamente, i gradi di libertà nei diversi test differiscono tra PROC MIXEDe …
Esistono buoni documenti o libri che trattano l'uso della discesa coordinata per L1 (lazo) e / o regolarizzazione della rete elastica per problemi di regressione lineare?
LASSO e LASSO adattivo sono due cose diverse, giusto? (Per me le penalità sembrano diverse, ma sto solo controllando se mi manca qualcosa.) Quando parli generalmente di rete elastica, è il caso speciale LASSO o LASSO adattivo? Quale fa il pacchetto glmnet, a condizione che tu scelga alpha = 1? …
Secondo i riferimenti libro 1 , libro 2 e carta . È stato menzionato che esiste un'equivalenza tra la regressione regolarizzata (Ridge, LASSO e Elastic Net) e le loro formule di vincolo. Ho anche esaminato Cross Validated 1 e Cross Validated 2 , ma non riesco a vedere una risposta …
Qualcuno ha provato a verificare se il montaggio di un modello di rete elastica con ElasticNetin scikit-learn in Python e glmnetin R sullo stesso set di dati produce risultati aritmetici identici? Ho sperimentato molte combinazioni di parametri (poiché le due funzioni differiscono nei valori predefiniti che passano agli argomenti) e …
Ho già un'idea dei pro e dei contro della regressione della cresta e del LASSO. Per LASSO, il termine di penalità L1 produrrà un vettore di coefficienti sparsi, che può essere visto come un metodo di selezione delle caratteristiche. Tuttavia, ci sono alcune limitazioni per LASSO. Se le funzionalità hanno …
In diverse risposte ho visto gli utenti di CrossValidated suggerire che OP ha trovato i primi articoli su Lasso, Ridge e Elastic Net. Per i posteri, quali sono le opere seminali su Lasso, Ridge e Elastic Net?
Come afferma il titolo, sto cercando di replicare i risultati di glmnet linear usando l'ottimizzatore LBFGS della libreria lbfgs. Questo ottimizzatore ci consente di aggiungere un termine regolarizzatore L1 senza doversi preoccupare della differenziabilità, purché la nostra funzione obiettivo (senza il termine regolarizzatore L1) sia convessa. Il problema della regressione …
Stavo leggendo questo articolo relativo alla rete elastica. Dicono che usano la rete elastica perché se usiamo semplicemente Lasso tende a selezionare solo un predittore tra i predittori che sono altamente correlati. Ma non è questo ciò che vogliamo. Voglio dire, non ci salva dal problema della multicollinearità. Qualche suggerimento …
I modelli penalizzati possono essere utilizzati per stimare modelli in cui il numero di parametri è uguale o addirittura maggiore della dimensione del campione. Questa situazione può verificarsi in modelli log-lineari di grandi tabelle sparse di dati categorici o di conteggio. In queste impostazioni, è spesso anche desiderabile o utile …
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
Sono confuso sul modo corretto di scrivere la rete elastica. Dopo aver letto alcuni articoli di ricerca sembrano esserci tre forme 1) exp{ -λ1|βK| -λ2β2K}exp{-λ1|βK|-λ2βK2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2) exp{ -(λ1|βK| +λ2β2K)σ2√}exp{-(λ1|βK|+λ2βK2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3) exp{ -(λ1|βK| +λ2β2K)2σ2}exp{-(λ1|βK|+λ2βK2)2σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Semplicemente non capisco il modo corretto di aggiungere σ2σ2\sigma^2. Una delle espressioni sopra è corretta?
Quali sono gli svantaggi dell'utilizzo della rete elastica rispetto al lazo. So che la rete elastica è in grado di selezionare gruppi di variabili quando sono altamente correlati. Non ha il problema di selezionare più di predittori quando . Considerando che il lazo si satura quando .nnnp≫np≫np \gg np≫np≫np \gg …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.