Domande taggate «boosting»

Una famiglia di algoritmi che combina modelli debolmente predittivi in ​​un modello fortemente predittivo. L'approccio più comune si chiama incremento del gradiente e i modelli deboli più comunemente usati sono gli alberi di classificazione / regressione.


2
Gradient Boosting Tree vs Random Forest
Il potenziamento dell'albero a gradiente, come proposto da Friedman, utilizza gli alberi decisionali come apprendenti di base. Mi chiedo se dovremmo rendere l'albero delle decisioni di base il più complesso possibile (completamente sviluppato) o più semplice? C'è qualche spiegazione per la scelta? Random Forest è un altro metodo di ensemble …






1
Differenze matematiche tra GBM, XGBoost, LightGBM, CatBoost?
Esistono diverse implementazioni della famiglia di modelli GBDT come: GBM XGBoost LightGBM Catboost. Quali sono le differenze matematiche tra queste diverse implementazioni? Catboost sembra sovraperformare le altre implementazioni anche usando solo i suoi parametri predefiniti secondo questo punto di riferimento , ma è ancora molto lento. La mia ipotesi è …
33 boosting  xgboost 



5
Cosa significa profondità di interazione in GBM?
Avevo una domanda sul parametro della profondità di interazione in gbm in R. Questa potrebbe essere una domanda noob, per la quale mi scuso, ma come fa il parametro, che credo denota il numero di nodi terminali in un albero, sostanzialmente indica X-way interazione tra i predittori? Sto solo cercando …

1
Approssimazione della funzione di perdita XGBoost con Taylor Expansion
Come esempio, assumere la funzione obiettivo del modello XGBoost sulla 'th iterazione:ttt L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) dove è la funzione di perdita, è la t 'th uscita albero e \ Omega è la regolarizzazione. Uno dei (molti) passaggi chiave per il calcolo veloce è l'approssimazione:ℓℓ\ellftftf_ttttΩΩ\Omega L( t )≈ ∑i = 1nℓ ( yio, …



2
Sulla "forza" dei discenti deboli
Ho diverse domande strettamente correlate riguardanti gli studenti deboli nell'apprendimento in gruppo (ad es. Il potenziamento). Questo può sembrare stupido, ma quali sono i vantaggi dell'utilizzo di studenti deboli piuttosto che forti? (es. perché non potenziare con metodi di apprendimento "forti"?) Esiste una sorta di forza "ottimale" per gli studenti …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.