Basato su Gradient Boosting Tree vs Random Forest . GBDT e RF utilizzano strategie diverse per contrastare la distorsione e la variazione.
La mia domanda è che posso ricampionare il set di dati (con la sostituzione) per addestrare più GBDT e combinare le loro previsioni come risultato finale?
È equivalente a costruire una foresta casuale usando GBDT come studente di base
L'idea è che GBDT sia in grado di equipaggiare un set di dati (simile a un albero decisionale in piena crescita, una bassa discrepanza e una varianza elevata). Spero che l'uso della tecnica di insaccamento possa anche ridurre questo problema e desidero ottenere prestazioni migliori.
Qualche suggerimento?