Utilizzo di Adaboost con SVM per la classificazione


11

So che Adaboost cerca di generare un classificatore forte usando una combinazione lineare di un insieme di classificatori deboli.

Tuttavia, ho letto alcuni articoli che suggeriscono che Adaboost e SVM lavorano in armonia (anche se SVM è un forte classificatore) in determinate condizioni e casi .

Non sono in grado di capire dal punto di vista dell'architettura e della programmazione come funzionano in combinazione. Ho letto molti articoli (forse quelli sbagliati) che non spiegavano chiaramente come funzionano insieme.

Qualcuno può far luce su come funzionano in una combinazione per una classificazione efficace? Anche i puntatori ad alcuni articoli / articoli / riviste sarebbero apprezzati.

Risposte:


8

Questo documento è abbastanza buono. Dice semplicemente che SVM può essere trattato come un classificatore debole se usi meno campioni per addestrarlo (diciamo meno della metà del set di addestramento). Maggiore è il peso, maggiori sono le possibilità che venga allenato dal "SVM debole"

modifica: collegamento risolto ora.


So che questa è una vecchia domanda, ma il collegamento è interrotto. Ti capita di conoscere il titolo dell'articolo o il nome dell'autore in modo che io possa trovare un link alternativo?
carlosdc,

Nel caso in cui il collegamento dovesse nuovamente scomparire in futuro, l'articolo è chiamato "Boosting Support Vector Machines" di Elkin García e Fernando Lozano.
Dougal,

2

Anche il documento AdaBoost con classificatori di componenti basati su SVM di Xuchun Li etal fornisce un'intuizione.
In breve, ma forse di parte: stanno cercando di rendere "deboli" i classificatori svm (leggermente oltre il 50%) ottimizzando i parametri per evitare che un classificatore possa avere un peso eccessivo o che tutti i classificatori si attivino in modo simile.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.