Sto cercando di capire come funziona XGBoost. Capisco già come funzionano gli alberi con gradiente potenziato su Python sklearn. Ciò che non mi è chiaro è se XGBoost funziona allo stesso modo, ma più velocemente, o se ci sono differenze fondamentali tra esso e l'implementazione di Python.
Quando ho letto questo documento
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Mi sembra che il risultato finale che esce da XGboost sia lo stesso dell'implementazione di Python, tuttavia la differenza principale è come XGboost trova la migliore divisione da fare in ogni albero di regressione.
Fondamentalmente, XGBoost dà lo stesso risultato, ma è più veloce.
È corretto o c'è qualcos'altro che mi manca?