La gente dice che il margine debole SVM usa la funzione di perdita della cerniera: . Tuttavia, la funzione oggettiva effettiva che SVM del margine debole cerca di minimizzare è \ frac {1} {2} \ | w \ | ^ 2 + C \ sum_i \ max (0,1-y_i (w ^ \ intercal x_i + b) ) Alcuni autori chiamano il termine regolarizzatore \ | w \ | ^ 2 e la funzione di perdita del termine \ max (0,1-y_i (w ^ \ intercal x_i + b)) .
Tuttavia, per SVM con margine fisso, l'intera funzione obiettivo è solo
Bene, se è la funzione di perdita in questo caso, possiamo chiamarla funzione di perdita quadratica? In tal caso, perché la funzione di perdita di SVM a margine duro diventa regolarizzatore in SVM a margine morbido e passa da perdita quadratica a perdita a cerniera?