Un metodo di regolarizzazione per i modelli di regressione che riduce i coefficienti verso zero, rendendone alcuni uguali a zero. Pertanto il lazo esegue la selezione delle funzioni.
Per la mia ricerca attuale sto usando il metodo Lazo tramite il pacchetto glmnet in R su una variabile binomiale dipendente. In glmnet la lambda ottimale si trova attraverso la validazione incrociata e i modelli risultanti possono essere confrontati con varie misure, ad esempio errori di classificazione errata o devianza. …
Secondo i riferimenti libro 1 , libro 2 e carta . È stato menzionato che esiste un'equivalenza tra la regressione regolarizzata (Ridge, LASSO e Elastic Net) e le loro formule di vincolo. Ho anche esaminato Cross Validated 1 e Cross Validated 2 , ma non riesco a vedere una risposta …
Sto eseguendo un modello di regressione sia con Lasso che con Ridge (per prevedere una variabile di esito discreto che varia da 0-5). Prima di eseguire il modello, utilizzo il SelectKBestmetodo di scikit-learnper ridurre il set di funzionalità da 250 a 25 . Senza una selezione iniziale delle caratteristiche, sia …
Sto cercando di fare la selezione del modello su alcuni predittori candidati usando LASSO con un risultato continuo. L'obiettivo è selezionare il modello ottimale con le migliori prestazioni di predizione, che di solito può essere eseguito mediante convalida incrociata K-fold dopo aver ottenuto un percorso di soluzione dei parametri di …
Ho già un'idea dei pro e dei contro della regressione della cresta e del LASSO. Per LASSO, il termine di penalità L1 produrrà un vettore di coefficienti sparsi, che può essere visto come un metodo di selezione delle caratteristiche. Tuttavia, ci sono alcune limitazioni per LASSO. Se le funzionalità hanno …
Nel frattempo sto studiando LASSO (operatore di ritiro e selezione assoluto minimo). Vedo che il valore ottimale per il parametro di regolarizzazione può essere scelto per convalida incrociata. Vedo anche nella regressione della cresta e in molti metodi che applicano la regolarizzazione, possiamo usare CV per trovare il parametro di …
Sto cercando di eseguire una regressione del lazo, che ha la seguente forma: Riduci a icona inwww(Y−Xw)′(Y−Xw)+λ|w|1(Y−Xw)′(Y−Xw)+λ|w|1(Y - Xw)'(Y - Xw) + \lambda \;|w|_1 Dato un , mi è stato consigliato di trovare w ottimale con l'aiuto della programmazione quadratica, che assume la seguente forma:λλ\lambdawww Riduci a icona xxx in …
Vorrei fissare manualmente un certo coefficiente, diciamo , quindi adattare i coefficienti a tutti gli altri predittori, mantenendo β 1 = 1.0 nel modello.β1= 1.0β1=1.0\beta_1=1.0β1= 1.0β1=1.0\beta_1=1.0 Come posso ottenere questo usando R? Mi piacerebbe particolarmente lavorare con LASSO ( glmnet) se possibile. In alternativa, come posso limitare questo coefficiente a …
Dopo aver letto il capitolo 3 in Elements of Statistical Learning (Hastie, Tibshrani & Friedman), mi chiedevo se fosse possibile implementare i famosi metodi di restringimento citati sul titolo di questa domanda, data una struttura di covarianza, cioè minimizzare il (forse più generale ) quantità (y⃗ −Xβ⃗ )TV−1(y⃗ −Xβ⃗ )+λf(β), …
Quando determino la mia lambda attraverso la convalida incrociata, tutti i coefficienti diventano zero. Ma ho alcuni suggerimenti dalla letteratura che alcuni dei predittori dovrebbero sicuramente influenzare il risultato. È spazzatura scegliere arbitrariamente lambda in modo che ci sia la stessa scarsità che si desidera? Voglio selezionare i primi 10 …
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso l'anno scorso . Quali implementazioni open source - in qualsiasi lingua - esistono là fuori che possono calcolare percorsi di regolarizzazione …
Se β∗=argminβ∥y−Xβ∥22+λ∥β∥1β∗=argminβ‖y−Xβ‖22+λ‖β‖1\beta^*=\mathrm{arg\,min}_{\beta} \|y-X\beta\|^2_2+\lambda\|\beta\|_1 , può ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumentare quando λλ\lambda aumenta? Penso che sia possibile Sebbene ∥β∗∥1‖β∗‖1\|\beta^*\|_1 non aumenta quando aumenta λλ\lambda (la mia prova ), ∥β∗∥2‖β∗‖2\|\beta^*\|_2 può aumentare. La figura seguente mostra una possibilità. Quando λλ\lambda aumenta, se β∗β∗\beta^* viaggia (linearmente) da PPP a QQQ , allora ∥β∗∥2‖β∗‖2\|\beta^*\|_2 aumenta mentre …
La mia situazione: campione di piccole dimensioni: 116 variabile di risultato binario lungo elenco di variabili esplicative: 44 le variabili esplicative non venivano dalla cima della mia testa; la loro scelta era basata sulla letteratura. la maggior parte dei casi nel campione e la maggior parte delle variabili hanno valori …
Sto cercando di riassumere ciò che ho capito finora nell'analisi multivariata penalizzata con insiemi di dati ad alta dimensione, e ancora faccio fatica a ottenere una definizione corretta della penalizzazione a soglia morbida rispetto al lasso (o ).L1L1L_1 Più precisamente, ho usato la regressione PLS sparsa per analizzare la struttura …
La mia comprensione della regressione di LASSO è che i coefficienti di regressione sono selezionati per risolvere il problema di minimizzazione: minβ∥ y- Xβ∥22 s . t . ∥ β∥1≤ tminβ‖y-Xβ‖22 S.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t In pratica questo viene fatto usando un moltiplicatore di …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.