Da aggiungere alla risposta di @Soren H. Welling.
1. È generalmente accettato segnalare l'errore di addestramento OOB come misura dell'errore di addestramento per foreste casuali?
No. L'errore OOB sul modello addestrato non è uguale all'errore di addestramento. Può, tuttavia, servire come misura della precisione predittiva.
2. È vero che la misura tradizionale dell'errore di addestramento è artificialmente bassa?
Questo è vero se stiamo riscontrando un problema di classificazione utilizzando le impostazioni predefinite. L'esatto processo è descritto in un post sul forum di Andy Liaw , che mantiene il randomForest
pacchetto in R, come segue:
Per la maggior parte, le prestazioni sul set di allenamento non hanno senso. (È il caso della maggior parte degli algoritmi, ma soprattutto per la RF.) Nell'impostazione predefinita (e consigliata), gli alberi vengono portati alla dimensione massima, il che significa che molto probabilmente c'è solo un punto dati nella maggior parte dei nodi terminali, e il la previsione sui nodi terminali è determinata dalla classe di maggioranza nel nodo o dal punto dati solitario. Supponiamo che sia sempre così; cioè, in tutti gli alberi tutti i nodi terminali hanno un solo punto dati. Un particolare punto dati sarebbe "in-bag" in circa il 64% degli alberi nella foresta e ognuno di questi alberi ha la previsione corretta per quel punto dati. Anche se tutti gli alberi in cui i punti dati sono fuori borsa hanno dato una previsione sbagliata, con il voto della maggioranza di tutti gli alberi, alla fine ottieni ancora la risposta giusta. Quindi, in pratica, la previsione perfetta sul set di treni per RF è "di progettazione".
nodesize > 1
sampsize < 0.5N
( xio, yio)
3. Se la misura tradizionale dell'errore di addestramento è artificialmente bassa, quali due misure posso confrontare per verificare se la RF è troppo adatta?
Se eseguiamo RF con nodesize = 1
e sampsize > 0.5
, l'errore di addestramento della RF sarà sempre vicino a 0. In questo caso, l'unico modo per sapere se il modello è troppo adatto è mantenere alcuni dati come set di validazione indipendente. È quindi possibile confrontare l'errore del test 10 CV (o l'errore del test OOB) con l'errore sul set di convalida indipendente. Se l'errore del test 10 CV è molto più basso dell'errore sul set di validazione indipendente, il modello potrebbe essere troppo adatto.