Quiz: informa il classificatore in base al suo limite di decisione


17

Di seguito sono riportati i 6 limiti di decisione. I confini delle decisioni sono linee violette. Punti e croci sono due diversi set di dati. Dobbiamo decidere quale è un:

  • SVM lineare
  • SVM Kernelized (kernel polinomiale di ordine 2)
  • Perceptron
  • Regressione logistica
  • Rete neurale (1 strato nascosto con 10 unità lineari rettificate)
  • Rete neurale (1 livello nascosto con 10 unità tanh)

Vorrei avere le soluzioni. Ma soprattutto, capire le differenze. Ad esempio direi che c) è un SVM lineare. Il limite di decisione è lineare. Ma possiamo anche omogeneizzare le coordinate del confine decisionale SVM lineare. d) SVM kernel, poiché è di ordine polinomiale 2. f) rete neurale rettificata a causa dei bordi "grezzi". Forse a) regressione logistica: è anche classificatore lineare, ma basato sulle probabilità.

Confini decisionali


1
Aggiungi il [self-study]tag e leggi la sua wiki . Forniremo suggerimenti per aiutarti a rimanere bloccato.
gung - Ripristina Monica

Ma non è un esercizio che devo presentare. Ho letto il post di studio individuale, ma penso che il mio post sia ok? Ho incluso il mio pensiero e ci ho anche pensato. Penso che forse questo esempio sia interessante anche per gli altri.
Miau Piau,

1
Grazie per aver aggiunto il tag. Questo non deve essere un esercizio per applicare la nostra politica. Questa è una buona domanda; L'ho votato e non ho votato per chiudere.
gung - Ripristina Monica

1
Potrebbe aiutare a spiegare cosa mostrano le trame. Penso che i punti siano le due serie di dati utilizzati per la formazione e che la linea sia il confine tra le aree in cui un nuovo punto verrebbe classificato in uno o in altri gruppi. È giusto?
Andy Clifton,

1
Questa è probabilmente la migliore domanda che abbia mai visto su una qualsiasi scheda Stackoverflow / Stackexchange negli ultimi 5 anni. Sorprendentemente, ci sarebbero fantini di codice Javascript su Stackoverflow che chiuderebbero questa domanda per essere "troppo ampia".
stackoverflowuser2010

Risposte:


9

Mi piace davvero questa domanda!

La prima cosa che viene in mente è la divisione tra classificatori lineari e non lineari. Tre classificatori sono lineari (svm lineare, perceptron e regressione logistica) e tre grafici mostrano un confine di decisione lineare ( A , B , C ). Quindi cominciamo con quelli.

Lineare

La trama lineare più salutare è la trama B perché ha una linea con una pendenza. Questo è strano per la regressione logistica e svm perché possono migliorare maggiormente le loro funzioni di perdita essendo una linea piatta (cioè essendo più lontani da (tutti) i punti). Pertanto, la trama B è il percettrone. Poiché l'uscita perctron è 0 o 1, tutte le soluzioni che separano una classe dall'altra sono ugualmente buone. Ecco perché non migliora ulteriormente.

La differenza tra la trama _A) e C è più sottile. Il confine decisione è leggermente inferiore nella trama A . Un SVM come numero fisso di vettori di supporto mentre la funzione di perdita della regressione logistica è determinata da tutti i punti. Poiché vi sono più croci rosse rispetto ai punti blu, la regressione logistica evita le croci rosse più dei punti blu. SVM lineare cerca solo di essere tanto lontano dai vettori di supporto rossi quanto dai vettori di supporto blu. Ecco perché il diagramma A è il limite decisionale della regressione logistica e il diagramma C viene realizzato utilizzando un SVM lineare.

Non lineare

Continuiamo con i grafici e i classificatori non lineari. Concordo con la tua osservazione sul fatto che la trama F è probabilmente la ReLu NN poiché ha i confini più netti. Un'unità ReLu perché attivata immediatamente se l'attivazione supera 0 e questo fa sì che l'unità di uscita segua una linea lineare diversa. Se guardi davvero, davvero bene puoi individuare circa 8 cambi di direzione nella linea, quindi probabilmente 2 unità hanno un impatto limitato sul risultato finale. Quindi la trama F è la ReLu NN.

A proposito degli ultimi due non ne sono così sicuro. Sia un NN tanh che un SVM polinomiale con kernel possono avere più confini. Il diagramma D è ovviamente classificato peggio. Un NN tanh può migliorare questa situazione piegando le curve in modo diverso e mettendo più punti blu o rossi nella regione esterna. Tuttavia, questa trama è piuttosto strana però. Immagino che la parte superiore sinistra sia classificata come rossa e la parte inferiore destra come blu. Ma come viene classificata la parte centrale? Dovrebbe essere rosso o blu, ma poi uno dei confini della decisione non dovrebbe essere tracciato. L'unica opzione possibile è quindi che le parti esterne siano classificate come un colore e la parte interna come l'altro colore. È strano e davvero brutto. Quindi non sono sicuro di questo.

Guardiamo plot E . Ha sia linee curve che rette. Per un SVM con kernel di grado 2 è difficile (quasi impossibile) avere un limite di decisione in linea retta poiché la distanza al quadrato favorisce gradualmente 1 delle 2 classi. Le funzioni di attivazione tanh possono essere saturate in modo tale che lo stato nascosto sia composto da 0 e 1. Nel caso in cui solo 1 unità poi cambi il suo stato per dire .5 è possibile ottenere un limite di decisione lineare. Quindi direi che la trama E è un NN tanh e quindi la trama D è un SVM con kernel. Peccato per il povero vecchio SVM però.

conclusioni

A - Regressione logistica
B - Perceptron
C - SVM lineare
D - SVM Kernelized (kernel polinomiale di ordine 2)
E - Rete neurale (1 strato nascosto con 10 unità tanh)
F - Rete neurale (1 strato nascosto con 10 unità lineari rettificate)


Grazie per la bella risposta. Mi piace anche la domanda. Dà una nuova prospettiva sui classificatori. SVM ha il margine massimo e quindi ha senso che la linea sia nel mezzo dei dati. Ma perché questo vale anche per la regressione logistica?
Miau Piau,

Intendi perché è dritto? O perché è nel mezzo?
Pieter,

Dici "possono migliorare maggiormente le loro funzioni di perdita essendo una linea piatta" - perché questo è per la regressione logistica?
Miau Piau,

1
In teoria è la soluzione migliore perché una linea inclinata diminuirebbe la probabilità corretta della classe più vicina più velocemente di quanto aumenti la probabilità della classe più distante.
Pieter,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.