Il metodo che ho familiarità con la costruzione di una foresta casuale è il seguente: (da http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm )
Per costruire un albero nella foresta noi:
- Bootstrap un campione di dimensione N dove N è la dimensione del nostro set di allenamento. Utilizzare questo esempio di bootstrap come set di training per questo albero.
- Su ciascun nodo dell'albero selezionare casualmente m delle nostre funzioni M. Seleziona la migliore di queste funzioni m su cui dividere. (dove m è un parametro della nostra foresta casuale)
- Coltiva ogni albero il più possibile - cioè senza potatura.
Mentre questo algoritmo ha senso a livello procedurale e certamente produce buoni risultati, non sono chiaro quale sia la motivazione teorica dietro i passaggi 1, 2 e 3. Qualcuno potrebbe spiegare cosa ha motivato qualcuno a inventare questa procedura e perché funziona così bene?
Ad esempio: perché dobbiamo eseguire il passaggio 1? Non sembra che stiamo avviando il bootstrap per il suo solito scopo di riduzione della varianza.