Domande taggate «xgboost»

Per domande relative all'algoritmo eXtreme Gradient Boosting.


2
Come interpretare l'output di importanza XGBoost?
Ho eseguito un modello xgboost. Non so esattamente come interpretare l'output di xgb.importance. Qual è il significato di guadagno, copertura e frequenza e come li interpretiamo? Inoltre, cosa significano Split, RealCover e RealCover%? Ho alcuni parametri extra qui Ci sono altri parametri che possono dirmi di più sull'importanza delle funzionalità? …

1

3
Parametri XGBoost per l'ipertensione
XGBoost ha fatto un ottimo lavoro, quando si tratta di gestire variabili dipendenti sia categoriche che continue. Ma come posso selezionare i parametri ottimizzati per un problema XGBoost? Ecco come ho applicato i parametri per un recente problema di Kaggle: param <- list( objective = "reg:linear", booster = "gbtree", eta …
27 r  python  xgboost 

2
LightGBM vs XGBoost
Sto cercando di capire quale sia il migliore (più preciso, soprattutto nei problemi di classificazione) Ho cercato articoli confrontando LightGBM e XGBoost ma ne ho trovati solo due: https://medium.com/implodinggradients/benchmarking-lightgbm-how-fast-is-lightgbm-vs-xgboost-15d224568031 - che riguarda solo la velocità ma non la precisione. https://github.com/Microsoft/LightGBM/wiki/Experiments - che proviene dagli autori di LightGBM e nessuna sorpresa …
25 xgboost 


4
XGBoost gestisce la multicollinearità da sola?
Attualmente sto usando XGBoost su un set di dati con 21 funzionalità (selezionate dall'elenco di circa 150 funzionalità), quindi le ho codificate a caldo per ottenere ~ 98 funzionalità. Alcune di queste 98 funzionalità sono in qualche modo ridondanti, ad esempio: una variabile (funzione) appare anche come e .UNUNABUNBUN\frac{B}{A}CUNCUN\frac{C}{A} Le …






3
Panda Dataframe su DMatrix
Sto cercando di eseguire xgboost in scikit learn. E io uso solo Panda per caricare i dati in dataframe. Come dovrei usare Panda Panda con xgboost. Sono confuso dalla routine DMatrix richiesta per eseguire xgboost algo.

1
XGBRegressor vs. xgboost.train enorme differenza di velocità?
Se alleno il mio modello utilizzando il seguente codice: import xgboost as xg params = {'max_depth':3, 'min_child_weight':10, 'learning_rate':0.3, 'subsample':0.5, 'colsample_bytree':0.6, 'obj':'reg:linear', 'n_estimators':1000, 'eta':0.3} features = df[feature_columns] target = df[target_columns] dmatrix = xg.DMatrix(features.values, target.values, feature_names=features.columns.values) clf = xg.train(params, dmatrix) termina in circa 1 minuto. Se alleno il mio modello usando il …

1
Importanza delle caratteristiche con caratteristiche categoriche ad alta cardinalità per la regressione (variabile numerica dipendente)
Stavo cercando di usare le importazioni delle funzionalità dalle foreste casuali per eseguire alcune selezioni empiriche di funzionalità per un problema di regressione in cui tutte le funzionalità sono categoriche e molte hanno molti livelli (dell'ordine di 100-1000). Dato che la codifica one-hot crea una variabile fittizia per ogni livello, …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.