Domande taggate «xgboost»

Un popolare algoritmo di boosting e libreria software (sta per "extreme gradient boosting"). Il potenziamento combina modelli debolmente predittivi in ​​un modello fortemente predittivo.


1
Differenze matematiche tra GBM, XGBoost, LightGBM, CatBoost?
Esistono diverse implementazioni della famiglia di modelli GBDT come: GBM XGBoost LightGBM Catboost. Quali sono le differenze matematiche tra queste diverse implementazioni? Catboost sembra sovraperformare le altre implementazioni anche usando solo i suoi parametri predefiniti secondo questo punto di riferimento , ma è ancora molto lento. La mia ipotesi è …
33 boosting  xgboost 

1
Approssimazione della funzione di perdita XGBoost con Taylor Expansion
Come esempio, assumere la funzione obiettivo del modello XGBoost sulla 'th iterazione:ttt L(t)=∑i=1nℓ(yi,y^(t−1)i+ft(xi))+Ω(ft)L(t)=∑i=1nℓ(yi,y^i(t−1)+ft(xi))+Ω(ft)\mathcal{L}^{(t)}=\sum_{i=1}^n\ell(y_i,\hat{y}_i^{(t-1)}+f_t(\mathbf{x}_i))+\Omega(f_t) dove è la funzione di perdita, è la t 'th uscita albero e \ Omega è la regolarizzazione. Uno dei (molti) passaggi chiave per il calcolo veloce è l'approssimazione:ℓℓ\ellftftf_ttttΩΩ\Omega L( t )≈ ∑i = 1nℓ ( yio, …


1
Spiegazione di min_child_weight nell'algoritmo xgboost
La definizione del parametro min_child_weight in xgboost è data come: somma minima del peso dell'istanza (hessiana) necessaria in un bambino. Se il passaggio della partizione dell'albero risulta in un nodo foglia con la somma del peso dell'istanza inferiore a min_child_weight, il processo di costruzione rinuncerà a un ulteriore partizionamento. In …



1
Boosting AND Bagging Trees (XGBoost, LightGBM)
Ci sono molti post sul blog, video di YouTube, ecc. Sulle idee di insaccamento o potenziamento degli alberi. La mia comprensione generale è che lo pseudo codice per ciascuno è: insacco: Prendi N campioni casuali di x% dei campioni e y% delle caratteristiche Adatta il tuo modello (ad es. Albero …

4
Bisogna preoccuparsi della multi-collinearità quando si usano modelli non lineari?
Supponiamo che abbiamo un problema di classificazione binaria con caratteristiche per lo più categoriche. Usiamo alcuni modelli non lineari (ad esempio XGBoost o Random Forests) per impararlo. Bisogna ancora preoccuparsi della multi-collinearità? Perché? Se la risposta a quanto sopra è vera, come si dovrebbe combatterla considerando che si stanno usando …



1
Come funziona lo studente di base lineare nel potenziamento? E come funziona nella libreria xgboost?
So implementare la funzione dell'obiettivo lineare e i boost lineari in XGBoost. La mia domanda concreta è: quando l'algoritmo si adatta al residuo (o al gradiente negativo) sta usando una caratteristica ad ogni passo (modello univariato) o tutte le caratteristiche (modello multivariato)? Qualsiasi riferimento alla documentazione relativa ai boost lineari …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.