Quanto è differente Support Vector Regressione rispetto a SVM?


11

Conosco le basi di SVM e SVR, ma ancora non capisco come il problema di trovare un iperpiano che massimizzi il margine si adatti a SVR.

In secondo luogo, ho letto qualcosa su usato come margine di tolleranza in SVR. Cosa significa?ε

Terzo, c'è qualche differenza tra i parametri delle funzioni decisionali utilizzati in SVM e SVR?


Ho tentato di spiegarlo in modo pittorico usando la vista laterale stats.stackexchange.com/questions/82044/…
Lejafar,

Risposte:


3

SVM, sia per la classificazione che per la regressione, riguarda l'ottimizzazione di una funzione tramite una funzione di costo, tuttavia la differenza sta nella modellazione dei costi.

Considera questa illustrazione di una macchina vettoriale di supporto utilizzata per la classificazione.

inserisci qui la descrizione dell'immagine

Poiché il nostro obiettivo è una buona separazione delle due classi, proviamo a formulare un confine che lasci il margine il più ampio possibile tra le istanze che sono più vicine ad esso (vettori di supporto), con possibilità che cadano in questo margine sia una possibilità, anche se incorrere in un costo elevato (nel caso di un margine debole SVM).

ε

inserisci qui la descrizione dell'immagine

ξ+,ξ-ε

Questo ci dà il problema dell'ottimizzazione (vedi E. Alpaydin, Introduzione all'apprendimento automatico, 2a edizione)

mion12||w||2+CΣt(ξ++ξ-)

soggetto a

rt-(wTX+w0)ε+ξ+t(wTX+w0)-rtε+ξ-tξ+t,ξ-t0

Istanze al di fuori del margine di regressione SVM sostiene costi nell'ottimizzazione, quindi il tentativo di minimizzare questo costo come parte dell'ottimizzazione perfeziona la nostra funzione decisionale, ma in realtà non massimizza il margine come sarebbe il caso della classificazione SVM.

Questo avrebbe dovuto rispondere alle prime due parti della tua domanda.

εCγ

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.