Una foresta casuale (RF) è creata da un insieme di Decision Trees (DT). Utilizzando il bagging, ogni DT viene addestrato in un sottoinsieme di dati diverso. Quindi, esiste un modo per implementare una foresta casuale in linea aggiungendo ulteriori decisioni su nuovi dati?
Ad esempio, abbiamo 10K campioni e addestriamo 10 DT. Quindi otteniamo campioni da 1K e invece di addestrare di nuovo l'intera RF, aggiungiamo un nuovo DT. La previsione viene fatta ora dalla media bayesiana di 10 + 1 DT.
Inoltre, se conserviamo tutti i dati precedenti, i nuovi DT possono essere formati principalmente sui nuovi dati, in cui la probabilità di prelevare un campione viene ponderata a seconda di quante volte sono già stati raccolti.