Domande taggate «bagging»

Il bagging o l'aggregazione bootstrap è un caso speciale di media del modello. Dato un set di formazione standard, l'insaccamento generam nuovi set di addestramento tramite bootstrap, quindi i risultati dell'utilizzo di un metodo di addestramento sul file mviene calcolata la media dei set di dati generati. L'insacco può stabilizzare i risultati di alcuni metodi instabili come gli alberi.





3
Quando non dovrei usare un classificatore d'ensemble?
In generale, in un problema di classificazione in cui l'obiettivo è prevedere con precisione l'appartenenza alla classe fuori campione, quando non dovrei usare un classificatore di ensemble? Questa domanda è strettamente correlata a Perché non usare sempre l'apprendimento d'insieme? . Questa domanda ci chiede perché non usiamo sempre ensemble. Voglio …


1
Boosting AND Bagging Trees (XGBoost, LightGBM)
Ci sono molti post sul blog, video di YouTube, ecc. Sulle idee di insaccamento o potenziamento degli alberi. La mia comprensione generale è che lo pseudo codice per ciascuno è: insacco: Prendi N campioni casuali di x% dei campioni e y% delle caratteristiche Adatta il tuo modello (ad es. Albero …

1
Quale metodo di confronto multiplo utilizzare per un modello lmer: lsmeans o glht?
Sto analizzando un set di dati usando un modello di effetti misti con un effetto fisso (condizione) e due effetti casuali (partecipante a causa del disegno e della coppia all'interno del soggetto). Il modello è stato generato conlme4 pacchetto: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Successivamente, ho eseguito un test del rapporto di verosimiglianza di …




3
La foresta casuale e il potenziamento sono parametrici o non parametrici?
Leggendo l'eccellente modellistica statistica: le due culture (Breiman 2001) , possiamo cogliere tutta la differenza tra modelli statistici tradizionali (ad es. Regressione lineare) e algoritmi di apprendimento automatico (ad es. Insaccamento, foresta casuale, alberi potenziati ...). Breiman critica i modelli di dati (parametrici) perché si basano sul presupposto che le …

1
Perché non usare sempre l'apprendimento d'insieme?
Mi sembra che l'apprendimento d'insieme fornirà sempre migliori prestazioni predittive rispetto a una singola ipotesi di apprendimento. Quindi, perché non li usiamo sempre? La mia ipotesi è forse a causa di limitazioni computazionali? (anche allora, usiamo predittori deboli, quindi non lo so).

2
Perché un albero insaccato / albero forestale casuale ha una propensione maggiore di un singolo albero decisionale?
Se consideriamo un albero decisionale completamente sviluppato (ovvero un albero decisionale non potato) ha una varianza elevata e una propensione bassa. Le foreste insaccanti e casuali utilizzano questi modelli ad alta varianza e li aggregano al fine di ridurre la varianza e quindi migliorare l'accuratezza delle previsioni. Entrambe le foreste …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.