Matematica dietro alberi di classificazione e regressione


14

Qualcuno può aiutare a spiegare alcune delle matematiche alla base della classificazione in CART? Sto cercando di capire come accadono due fasi principali. Ad esempio, ho addestrato un classificatore CART su un set di dati e ho usato un set di dati di prova per contrassegnare le prestazioni predittive ma:

  1. Come viene scelta la radice iniziale dell'albero?

  2. Perché e come si forma ogni ramo?

Il mio set di dati, essendo 400 mila record con 15 colonne e 23 classi, raggiunge un'accuratezza del 100% da una matrice di confusione, uso un set di 10 volte il crossvalidation sul set di dati. Sarei davvero grato se qualcuno potesse aiutare a spiegare le fasi della classificazione CART?

Risposte:


24

Il CART e gli alberi decisionali come gli algoritmi funzionano attraverso il partizionamento ricorsivo del set di addestramento al fine di ottenere sottoinsiemi il più puri possibile per una data classe target. Ogni nodo dell'albero è associato a un particolare insieme di record che è diviso da un test specifico su una funzione. Ad esempio, una prova su un attributo continuo A può essere indotta dal test A x . L'insieme dei record T viene quindi partizionato in due sottoinsiemi che conducono al ramo sinistro dell'albero e a quello destro.TAAxT

Tl={tT:t(A)x}

e

Tr={tT:t(A)>x}

Allo stesso modo, una caratteristica categorica può essere utilizzata per indurre divisioni in base ai suoi valori. Ad esempio, se B = { b 1 , ... , b k } ogni ramo i può essere indotto dal test B = b i .BB={b1,,bk}iB=bi

La fase di divisione dell'algoritmo ricorsivo per indurre l'albero decisionale tiene conto di tutte le possibili divisioni per ciascuna caratteristica e cerca di trovare la migliore in base a una misura di qualità scelta: il criterio di divisione. Se il set di dati viene indotto nel seguente schema

A1,,Am,C

dove sono attributi e C è la classe target, tutte le suddivisioni dei candidati vengono generate e valutate dal criterio di suddivisione. Le suddivisioni su attributi continui e quelli categoriali vengono generate come descritto sopra. La selezione della migliore divisione viene di solito effettuata mediante misure di impurità. L'impurità del nodo padre deve essere ridotta della divisione . Sia ( E 1 , E 2 , , E k ) una divisione indotta sull'insieme dei record E , un criterio di divisione che utilizza la misura di impurità I ( ) è:AjC(E1,E2,,Ek)EI()

Δ=I(E)i=1k|Ei||E|I(Ei)

Le misure standard di impurità sono l'entropia di Shannon o l'indice Gini. Più specificamente, CART utilizza l'indice Gini definito per l'insieme come segue. Sia p j la frazione dei record in E di classe c j p j = | { t E : t [ C ] = c j } |EpjEcj quindi Gini(E)=1- Q j=1p 2 j doveQ

pj=|{tE:t[C]=cj}||E|
Gini(E)=1j=1Qpj2
Q è il numero di classi.

Porta a un'impurità 0 quando tutti i record appartengono alla stessa classe.

Per fare un esempio, diciamo che abbiamo una serie di classe binario di record dove la distribuzione classe è ( 1 / 2 , 1 / 2 ) - La seguente è una buona spaccatura per TT(1/2,1/2)T

Buona divisione

Tl(1,0)Tr(0,1)TlTr|Tl|/|T|=|Tr|/|T|=1/2Δ

Δ=11/221/2200=1/2

ΔSpaccatura sbagliata

Δ=11/221/221/2(1(3/4)2(1/4)2)1/2(1(1/4)2(3/4)2)=1/21/2(3/8)1/2(3/8)=1/8

La prima divisione verrà selezionata come migliore suddivisione e quindi l'algoritmo procede in modo ricorsivo.

È facile classificare una nuova istanza con un albero decisionale, infatti è sufficiente seguire il percorso dal nodo radice a una foglia. Un record è classificato con la classe di maggioranza della foglia che raggiunge.

Diciamo che vogliamo classificare il quadrato su questa figura

Set di dati con due funzioni

A,B,CCAB

Un possibile albero decisionale indotto potrebbe essere il seguente: inserisci qui la descrizione dell'immagine

È chiaro che il quadrato del record verrà classificato dall'albero decisionale come un cerchio dato che il record cade su una foglia etichettata con cerchi.

In questo esempio di giocattolo l'accuratezza sul set di addestramento è del 100% perché nessun record è classificato male dall'albero. Sulla rappresentazione grafica del set di allenamento sopra possiamo vedere i confini (linee tratteggiate grigie) che l'albero usa per classificare le nuove istanze.

C'è molta letteratura sugli alberi delle decisioni, volevo solo scrivere un'introduzione abbozzata. Un'altra famosa implementazione è C4.5.


1
grandi diagrammi!
Cam.Davidson.Pilon il

Grazie, sfortunatamente sembra che l'editor non supporti il ​​caricamento in formato PDF. Erano vettoriali.
Simone,

2

Non sono un esperto di CART ma puoi provare il libro "Elementi di apprendimento statistico" che è disponibile gratuitamente online (vedi capitolo 9 per CART). Credo che il libro sia stato scritto da uno dei creatori dell'algoritmo CART (Friedman).


Ciò ha aiutato molto! +1 trovare brillante!
G Gr,

@GarrithGraham nessun problema, pensavo che questo libro gratuito fosse un "segreto ben noto".
Bitwise,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.