La foresta casuale è un classificatore di apprendimento automatico basato sulla scelta di sottoinsiemi casuali di variabili per ciascun albero e utilizzando l'output dell'albero più frequente come classificazione generale.
Sto addestrando modelli forestali casuali in R usando randomForest()con 1000 alberi e frame di dati con circa 20 predittori e 600K righe. Sul mio laptop tutto funziona bene, ma quando passo ad Amazon ec2, per eseguire la stessa cosa, ottengo l'errore: Error: cannot allocate vector of size 5.4 Gb Execution …
Quando salvato su disco usando cPickle: /programming/20662023/save-python-random-forest-model-to-file , la mia foresta casuale è di 6.57 GB. with open('rforest.cpickle', 'wb') as f: cPickle.dump(rforest, f) Voglio usare la foresta stessa per fare previsioni tramite un'API python ospitata su Heroku - ovviamente, la dimensione del file è inaccettabile. Perché la dimensione del file …
Sto cercando una stima teorica o sperimentale del limite inferiore per il numero di alberi in un classificatore Foresta casuale. Di solito collaudo diverse combinazioni e seleziono quella che (usando la validazione incrociata) fornisce il miglior risultato mediano. Tuttavia, penso che potrebbe esserci un limite inferiore al numero di alberi …
Sto lavorando a un problema di classificazione del testo usando Random Forest come classificatori e un approccio bag-of-word. Sto usando l'implementazione di base di Random Forests (quella presente in scikit), che crea una condizione binaria su una singola variabile ad ogni divisione. Detto questo, c'è una differenza tra l'uso di …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.