Domande taggate «ridge-regression»

Un metodo di regolarizzazione per i modelli di regressione che riduce i coefficienti verso lo zero.

2
Regressione della cresta - interpretazione bayesiana
Ho sentito che la regressione della cresta può essere derivata come media di una distribuzione posteriore, se il priore viene scelto adeguatamente. L'intuizione che i vincoli impostati sui coefficienti di regressione dal precedente (ad es. Distribuzioni normali standard attorno a 0) sono identici / sostituisce la penalità impostata sulla dimensione …

1
Rilassamento lagrangiano nel contesto della regressione della cresta
In "The Elements of Statistical Learning" (2a edizione), p63, gli autori forniscono le seguenti due formulazioni del problema di regressione della cresta: β^r i dge= argminβ{ ∑i = 1N( yio- β0- ∑j = 1pXio jβj)2+ λ ∑j = 1pβ2j}β^riodge=argminβ{Σio=1N(yio-β0-Σj=1pXiojβj)2+λΣj=1pβj2} \hat{\beta}^{ridge} = \underset{\beta}{\operatorname{argmin}} \left\{ \sum_{i=1}^N(y_i-\beta_0-\sum_{j=1}^p x_{ij} \beta_j)^2 + \lambda \sum_{j=1}^p \beta_j^2 …

4
La prova di formule equivalenti di regressione della cresta
Ho letto i libri più popolari nell'apprendimento statistico 1- Gli elementi dell'apprendimento statistico. 2- Un'introduzione all'apprendimento statistico . Entrambi menzionano che la regressione della cresta ha due formule equivalenti. Esiste una comprensibile prova matematica di questo risultato? Ho anche esaminato Cross Validated , ma non riesco a trovare una prova …

1
Coefficienti di regressione della cresta che sono maggiori dei coefficienti OLS o che cambiano segno in base a
Quando si esegue la regressione della cresta, come si interpretano i coefficienti che risultano più grandi dei coefficienti corrispondenti sotto i minimi quadrati (per determinati valori di )? La regressione della cresta non dovrebbe ridurre i coefficienti monotonicamente?λλ\lambda In una nota correlata, come si interpreta un coefficiente il cui segno …








5
Norme Ridge e LASSO
Questo post segue questo: perché la stima della cresta diventa migliore di OLS aggiungendo una costante alla diagonale? Ecco la mia domanda: Per quanto ne so, la regolarizzazione della cresta usa un -norm (distanza euclidea). Ma perché usiamo il quadrato di questa norma? (un'applicazione diretta di risulterebbe con la radice …


1
Come interpretare i risultati quando sia la cresta che il lazo funzionano separatamente ma producono coefficienti diversi
Sto eseguendo un modello di regressione sia con Lasso che con Ridge (per prevedere una variabile di esito discreto che varia da 0-5). Prima di eseguire il modello, utilizzo il SelectKBestmetodo di scikit-learnper ridurre il set di funzionalità da 250 a 25 . Senza una selezione iniziale delle caratteristiche, sia …

2
Se il restringimento viene applicato in modo intelligente, funziona sempre meglio per stimatori più efficienti?
Supponiamo di avere due stimatori e che sono stimatori coerenti dello stesso parametro e tali che con in senso psd. Pertanto, asintoticamente è più efficiente di . Questi due stimatori si basano su diverse funzioni di perdita. β 2β0√βˆ1β^1\widehat{\beta}_1βˆ2β^2\widehat{\beta}_2β0β0\beta_0n−−√(βˆ1−β0)→dN(0,V1),n−−√(βˆ2−β0)→dN(0,V2)n(β^1−β0)→dN(0,V1),n(β^2−β0)→dN(0,V2)\sqrt{n}(\widehat{\beta}_1 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_1), \quad \sqrt{n}(\widehat{\beta}_2 -\beta_0) \stackrel{d}\rightarrow \mathcal{N}(0, V_2) β …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.