Inclusione di ulteriori vincoli (in genere una penalità per la complessità) nel processo di adattamento del modello. Utilizzato per prevenire un eccesso di adattamento / migliorare la precisione predittiva.
Quali sono i pro e i contro dell'utilizzo di LARS [1] rispetto all'utilizzo della discesa delle coordinate per l'adattamento della regressione lineare regolarizzata L1? Sono principalmente interessato agli aspetti prestazionali (i miei problemi tendono ad avere Ntra le centinaia di migliaia e p<20). Tuttavia, anche altre intuizioni sarebbero apprezzate. modifica: …
Ho letto che il lazo di gruppo viene utilizzato per la selezione delle variabili e la scarsità in un gruppo di variabili. Voglio conoscere l'intuizione dietro questa affermazione. Perché il lazo di gruppo è preferito al lazo? Perché il percorso della soluzione lazo di gruppo non è lineare a tratti?
Secondo questo tutorial sull'apprendimento profondo , la riduzione del peso (regolarizzazione) di solito non viene applicata ai termini di errore b perché? Qual è il significato (intuizione) dietro di esso?
Vorrei confrontare i modelli selezionati con la cresta, il lazo e la rete elastica. La Fig. Sotto mostra i percorsi dei coefficienti usando tutti e 3 i metodi: cresta (Fig A, alfa = 0), lazo (Fig B; alfa = 1) e rete elastica (Fig C; alfa = 0,5). La soluzione …
Sento sempre più queste parole mentre studio l'apprendimento automatico. In effetti, alcune persone hanno vinto la medaglia Fields lavorando su regolarità di equazioni. Quindi, immagino che questo sia un termine che va dalla fisica statistica / matematica all'apprendimento automatico. Naturalmente, un certo numero di persone a cui ho chiesto non …
Qualcuno può indicarmi la direzione di un algoritmo online (ricorsivo) per la regolarizzazione di Tikhonov (minimi quadrati regolarizzati)? In un'impostazione offline, calcolerei usando il mio set di dati originale dove λ si trova usando la convalida incrociata n-fold. È possibile prevedere un nuovo valore y per un dato x usando …
Vorrei porre questa domanda in due parti. Entrambi trattano un modello lineare generalizzato, ma il primo riguarda la selezione del modello e l'altro riguarda la regolarizzazione. Contesto: utilizzo modelli GLM (lineari, logistici, regressione gamma) sia per la previsione che per la descrizione. Quando mi riferisco alle " cose normali che …
Esistono buoni documenti o libri che trattano l'uso della discesa coordinata per L1 (lazo) e / o regolarizzazione della rete elastica per problemi di regressione lineare?
Nel rilevamento compresso, c'è una garanzia teorema che ha una soluzione sparsa unica c (Vedi appendice per maggiori dettagli).argmin∥c∥1subject to y=Xcargmin‖c‖1subject to y=Xc\text{argmin} \Vert c \Vert_1\\ \text{subject to } y = Xc ccc Esiste un teorema simile per il lazo? Se esiste un tale teorema, non solo garantirà la stabilità …
Sto cercando letteratura sulla regressione della cresta negativa . In breve, si tratta di una generalizzazione della regressione della cresta lineare usando negativo nella formula dello stimatore:Il caso positivo ha una buona teoria: come una funzione di perdita, come un vincolo, come un precedente di Bayes ... ma mi sento …
Ecco un esempio di codice keras che lo utilizza: from keras.constraints import max_norm model.add(Convolution2D(32, 3, 3, input_shape=(3, 32, 32), border_mode='same', activation='relu', kernel_constraint=max_norm(3)))
Per evitare il sovradimensionamento delle persone, le persone aggiungono un termine di regolarizzazione (proporzionale alla somma quadrata dei parametri del modello) con un parametro di regolarizzazione alla funzione di costo della regressione lineare. Questo parametro lo stesso di un moltiplicatore di lagrange? Quindi la regolarizzazione è la stessa del metodo …
Questo post segue questo: perché la stima della cresta diventa migliore di OLS aggiungendo una costante alla diagonale? Ecco la mia domanda: Per quanto ne so, la regolarizzazione della cresta usa un -norm (distanza euclidea). Ma perché usiamo il quadrato di questa norma? (un'applicazione diretta di risulterebbe con la radice …
Ultimamente ho visto molti articoli su rappresentazioni sparse e la maggior parte di loro usa la norma e minimizza. La mia domanda è: qual è la norma e la norma mista ? E come sono rilevanti per la regolarizzazione?ℓpℓp\ell_pℓpℓp\ell_pℓp,qℓp,q\ell_{p, q} Grazie
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.