Inclusione di ulteriori vincoli (in genere una penalità per la complessità) nel processo di adattamento del modello. Utilizzato per prevenire un eccesso di adattamento / migliorare la precisione predittiva.
Ecco qualcosa che ho letto nel libro Deep Learning di Ian Goodfellow . Nel contesto delle reti neurali, "la penalità della norma del parametro L2 è comunemente nota come riduzione del peso. Questa strategia di regolarizzazione avvicina i pesi all'origine [...]. Più in generale, potremmo regolarizzare i parametri in modo …
Nella scelta del parametro di regolarizzazione lambda in Ridge o Lasso, il metodo consigliato è provare diversi valori di lambda, misurare l'errore nel set di convalida e infine scegliere quel valore di lambda che restituisce l'errore più basso. Non è un problema per me se la funzione f (lambda) = …
Ho già un'idea dei pro e dei contro della regressione della cresta e del LASSO. Per LASSO, il termine di penalità L1 produrrà un vettore di coefficienti sparsi, che può essere visto come un metodo di selezione delle caratteristiche. Tuttavia, ci sono alcune limitazioni per LASSO. Se le funzionalità hanno …
Nel frattempo sto studiando LASSO (operatore di ritiro e selezione assoluto minimo). Vedo che il valore ottimale per il parametro di regolarizzazione può essere scelto per convalida incrociata. Vedo anche nella regressione della cresta e in molti metodi che applicano la regolarizzazione, possiamo usare CV per trovare il parametro di …
Con le tecniche di regolarizzazione mi riferisco al lazo, alla regressione della cresta, alla rete elastica e simili. Prendere in considerazione un modello predittivo sui dati sanitari contenenti dati demografici e diagnostici in cui è prevista la durata del soggiorno per degenza. Per alcuni individui ci sono più osservazioni LOS …
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso l'anno scorso . Quali implementazioni open source - in qualsiasi lingua - esistono là fuori che possono calcolare percorsi di regolarizzazione …
La mia comprensione della regressione di LASSO è che i coefficienti di regressione sono selezionati per risolvere il problema di minimizzazione: minβ∥ y- Xβ∥22 s . t . ∥ β∥1≤ tminβ‖y-Xβ‖22 S.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t In pratica questo viene fatto usando un moltiplicatore di …
In diverse risposte ho visto gli utenti di CrossValidated suggerire che OP ha trovato i primi articoli su Lasso, Ridge e Elastic Net. Per i posteri, quali sono le opere seminali su Lasso, Ridge e Elastic Net?
Se ho una matrice di progettazione , dove è il numero di osservazioni della dimensione , qual è la complessità della risoluzione per con LASSO, wrt e ? Penso che la risposta dovrebbe fare riferimento a come una iterazione LASSO si ridimensiona con questi parametri, piuttosto che a come il …
Di recente ho avuto alcuni colloqui statistici sul Lazo (regolarizzazione) e un punto che continua a emergere è che non capiamo davvero perché il Lazo funzioni o perché funzioni così bene. Mi chiedo a cosa si riferisca questa affermazione. Ovviamente capisco perché il Lazo funziona tecnicamente, prevenendo l'eccessivo adattamento mediante …
Come afferma il titolo, sto cercando di replicare i risultati di glmnet linear usando l'ottimizzatore LBFGS della libreria lbfgs. Questo ottimizzatore ci consente di aggiungere un termine regolarizzatore L1 senza doversi preoccupare della differenziabilità, purché la nostra funzione obiettivo (senza il termine regolarizzatore L1) sia convessa. Il problema della regressione …
È noto (ad esempio nel campo del rilevamento compressivo) che la norma è "inducente la scarsità", nel senso che se minimizziamo il funzionale (per matrice fissa A e vettore \ vec {b} ) f_ {A , \ vec {b}} (\ vec {x}) = \ | A \ vec {x} - …
Esistono molti metodi per eseguire la regolarizzazione , ad esempio la regolarizzazione basata sulle norme , e . Secondo Friedman Hastie & Tibsharani , il miglior regolarizzatore dipende dal problema: vale a dire la natura della vera funzione target, la particolare base utilizzata, il rapporto segnale-rumore e la dimensione del …
Nelle note di lezione della settimana 3 del corso di apprendimento automatico Coursera di Andrew Ng , viene aggiunto un termine alla funzione di costo per implementare la regolarizzazione: J+( θ ) = J( θ ) + λ2 mΣj = 1nθ2jJ+(θ)=J(θ)+λ2m∑j=1nθj2J^+(\theta) = J(\theta) + \frac{\lambda}{2m} \sum_{j=1}^n \theta_j^2 Gli appunti delle …
Uso RNN bidirezionale per rilevare un evento di evento sbilanciato. La classe positiva è 100 volte meno spesso della classe negativa. Sebbene non sia possibile utilizzare la regolarizzazione, posso ottenere una precisione del 100% sul set di treni e del 30% sul set di convalida. Attivo la regolarizzazione l2 e …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.