sfondo: in xgboost le tenta iterazione montare un albero f t su tutte le n esempi che minimizza la seguente obiettivo:tttftftf_tnnn ∑i=1n[gift(xi)+12hif2t(xi)]∑i=1n[gift(xi)+12hift2(xi)]\sum_{i=1}^n[g_if_t(x_i) + \frac{1}{2}h_if_t^2(x_i)] dove sono primo ordine e derivati secondo ordine oltre la nostra precedente stima migliore y (da iterazione t - 1 ):gi,higi,hig_i, h_iy^y^\hat{y}t−1t−1t-1 gi=dy^l(yi,y^)gi=dy^l(yi,y^)g_i=d_{\hat{y}}l(y_i, \hat{y}) hi=d2y^l(yi,y^)hi=dy^2l(yi,y^)h_i=d^2_{\hat{y}}l(y_i, \hat{y}) …
Esistono delle regole empiriche (o regole effettive) relative alla quantità minima, massima e "ragionevole" di celle LSTM che dovrei usare? In particolare mi riferisco a BasicLSTMCell di TensorFlow e num_unitsproprietà. Si prega di supporre che ho un problema di classificazione definito da: t - number of time steps n - …
Sto prototipando un'applicazione e ho bisogno di un modello linguistico per calcolare la perplessità su alcune frasi generate. Esiste un modello di linguaggio addestrato in Python che posso usare facilmente? Qualcosa di semplice come model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert …
Qual è la differenza in R in xgboost tra binary: logistic e reg: logistic? È solo nella metrica di valutazione? In caso affermativo, come si confronta RMSE sulla classificazione binaria con il tasso di errore? La relazione tra le metriche è più o meno monotonica, l'output della messa a punto …
sto usando XGboost per prevedere una variabile target di 2 classi sui crediti assicurativi. Ho un modello (allenamento con validazione incrociata, ottimizzazione dei parametri ipertestuali ecc ...) che eseguo su un altro set di dati. La mia domanda è : c'è un modo per sapere perché un dato reclamo è …
Dal tutorial di XGBoost, penso che quando ogni albero cresce, tutte le variabili vengono scansionate per essere selezionate per dividere i nodi e verrà scelto quello con la divisione del guadagno massimo. Quindi la mia domanda è che cosa succede se aggiungo alcune variabili di rumore nel set di dati, …
Chiuso . Questa domanda deve essere più focalizzata . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che si concentri su un problema solo modificando questo post . Chiuso 4 anni fa . Sto lavorando a un progetto e ho difficoltà a decidere quale …
Sto verificando la documentazione di XGBoost e si afferma che XGBoost è una libreria ottimizzata di incremento gradiente distribuito . Cosa si intende per distribuito? Buona giornata
Stavo leggendo il materiale relativo a XGBoost. Sembra che questo metodo non richieda alcun ridimensionamento variabile poiché si basa su alberi e questo può catturare interazioni complesse con schemi di non linearità. E può gestire variabili sia numeriche sia categoriche e sembra anche che le variabili ridondanti non influiscano troppo …
Ho un modello XGBoost che cerca di prevedere se una valuta salirà o scenderà nel prossimo periodo (5 min). Ho un set di dati dal 2004 al 2018. Ho diviso i dati in modo casuale in 95% di treno e 5% di convalida e l'accuratezza sul set di convalida è …
Sto lavorando a un set di dati con etichetta binaria altamente squilibrato, in cui il numero di etichette vere è solo il 7% dall'intero set di dati. Ma una combinazione di funzionalità potrebbe produrre un numero di unità superiore alla media in un sottoinsieme. Ad esempio, abbiamo il seguente set …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.