Valuta foresta casuale: OOB vs CV


13

Quando valutiamo la qualità di una foresta casuale, ad esempio utilizzando AUC, è più appropriato calcolare queste quantità sui campioni out of bag o sul set di validazione incrociata?

Ho sentito che il calcolo su campioni OOB fornisce una valutazione più pessimistica, ma non vedo perché.

Risposte:


12

Nota: anche se ritengo che la mia risposta sia probabilmente corretta, mi sento anche dubbioso a causa del fatto che ho inventato tutto questo pensando a questo problema solo dopo aver letto questa domanda per circa 30-60 minuti. Quindi è meglio essere scettici e scrutare questo e non lasciarti ingannare dal mio stile di scrittura forse eccessivamente sicuro (usare parole grandi e fantasiosi simboli greci non significa che abbia ragione).

Sommario

Questo è solo un riassunto. Tutti i dettagli sono menzionati nelle sezioni §1 e §2 seguito.

Supponiamo il caso della classificazione (può essere esteso anche alla regressione, ma omettiamo per brevità). In sostanza, il nostro obiettivo è stimare l'errore di una foresta di alberi. Sia l'errore out-of-bag che la convalida incrociata k-fold provano a dirci la probabilità che:

  • La foresta fornisce la classificazione corretta (la validazione incrociata di k-fold la osserva in questo modo).

Che è identico alla probabilità che:

  • Il voto della maggioranza degli alberi della foresta è il voto corretto (OOBE la guarda in questo modo).

Ed entrambi sono identici. L'unica differenza è che la validazione incrociata di k-fold e OOBE assumono campioni di apprendimento di dimensioni diverse. Per esempio:

  • Nella convalida incrociata 10 volte, il set di apprendimento è del 90%, mentre il set di test è del 10%.
  • Tuttavia, in OOBE se ogni borsa ha campioni, in modo tale che n = numero totale di campioni nell'intero set di campioni, ciò implica che il set di apprendimento è praticamente del 66% circa (due terzi) e il set di test è di circa il 33% ( un terzo).nn=

Pertanto, a mio avviso, l'unica ragione per cui OOBE è una stima pessimistica dell'errore della foresta è solo perché si allena di solito con un numero inferiore di campioni rispetto a quelli normalmente effettuati con la validazione incrociata di k-fold (dove 10 pieghe sono comuni).

A causa di ciò, penso anche che la convalida incrociata doppia sarà una stima più pessimistica dell'errore della foresta rispetto a OOBE e che la convalida incrociata tripla sarà approssimativamente ugualmente pessimistica rispetto a OOBE.

1. Comprensione dell'errore immediato

1.1 Vista comune sull'insaccamento

Ogni albero in RF è cresciuto da un elenco di campioni che sono estratti casualmente dal set di apprendimento X con la sostituzione. In questo modo, i n molti campioni possono avere duplicati, e se n = | X | allora si può scoprire che circa un terzo dei campioni in X probabilmente finirà per non essere nella lista di n campioni usati per far crescere un determinato albero (questi sono i campioni out-of-bag di questo specifico albero. Questo processo viene ripetuto in modo indipendente per ogni albero, quindi ogni albero ha un diverso set di campioni out-of-bag.nXnn=|X|Xn

1.2. Un'altra vista sull'insaccamento

Ora, descriviamo il bagging in modo leggermente diverso con la speranza di trovare una descrizione uguale che si spera sia più semplice da gestire.

Faccio questo affermando che l'albero è allenato da campioni insaccato nel set di X tX . Tuttavia, questo non è esattamente vero poiché l'insieme X t non ha campioni duplicati (questo è il modo in cui funzionano gli insiemi), mentre - d'altra parte - l' elenco n di campioni può avere duplicati.tXtXXtn

Pertanto, possiamo dire che un albero viene cresciuto analizzando i campioni X t più un numero di duplicati scelti a caso estratti da X t , vale a dire X t , 1 , X t , 2 , , X t , rX t , tale che: | X t | + r i = 1tXt XtXt,1,Xt,2,,Xt,rXt

|Xt|+i=1r|Xt,i|=n

È banale vedere che da questa raccolta di insiemi , possiamo definire un elenco di n -molti campioni che contengono duplicati semplicemente aggiungendo gli elementi in ciascuno impostare C iC su un array a . In questo modo, per ogni 1 p n , esiste almeno un valore di i tale che a [ p ] C iC={Xt,Xt,1,,Xt,r}nCiCa1pnia[p]Ci.

Possiamo anche vedere che l'elenco di campioni nell'array a è una generalizzazione del bagging come ho definito nella Sezione 1. È banale vedere che per una definizione specifica di Xna che ho definito in questa sezione ( § 2 ) , l'elenco dei campioni nella matrice a può essere esattamenteidenticoall'elenco dei campioni definito nella Sezione 1.Xt§2a

1.3. Semplificazione dell'insaccamento

Invece di crescere albero dai campioni nell'array a , li faremo crescere dall'elenco di istanze privo di duplicazione che si trova solo in X t .taXt

Credo che, se è abbastanza grande, un albero t che viene cresciuto analizzando i campioni in Xnt è identico a un altro albero t che viene cresciuto dai campioni nella matrice a .Xtta

La mia ragione è che la probabilità di duplicare campioni in è ugualmente probabile su altri campioni nello stesso set. Ciò significa che, quando misuriamo il guadagno di informazioni (IG) di una divisione, l'IG rimarrà identico poiché anche le entropie rimarranno identiche.Xt

E la ragione per cui credo che le entropie non cambieranno sistematicamente per una data suddivisione è perché non cambierà neanche la probabilità misurata empiricamente di un campione con un'etichetta specifica in un sottoinsieme (dopo aver applicato una suddivisione decisionale).

E la ragione per cui le probabilità non dovrebbero cambiare secondo me è che tutti i campioni sono presenti hanno la stessa probabilità di essere duplicati incopied.Xtd

1.4 Misurazione di errori fuori borsa

Sia il campione out-of-bag dell'albero t . Ie O t = XX t . Quindi l'errore di un singolo albero t è: totale  x  in OttOt=XXtt E l'errore totale della foresta conntmolti alberi è: Σ n t t = 1 totale  x  in  O t  correttamente classificati per t

total x in Ot correctly classified by t|Ot|
nt che può essere considerata laprobabilitàmisurata empiricamenteche il voto della maggioranza di tutti gli alberi in una foresta sia un voto corretto.
t=1nttotal x in Ot correctly classified by tt=1nt|Ot|

2. Comprensione della convalida incrociata di k-fold

XnkK={K1,K2,,Knk}K1K2Knk=XKi,KjKKiKj=

KtK{Kt}

fK{Kt}

f

t=1nktotal x in Kt correctly classified by ft=1nk|Kt|

f

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.