Sono un principiante in Machine Learning. In SVM, l'iperpiano di separazione è definito come . Perché diciamo vettore w ortogonale all'iperpiano di separazione?
Sono un principiante in Machine Learning. In SVM, l'iperpiano di separazione è definito come . Perché diciamo vettore w ortogonale all'iperpiano di separazione?
Risposte:
Dal punto di vista geometrico, il vettore w è diretto ortogonale alla linea definita da . Questo può essere inteso come segue:
Per prima cosa prendi . Ora è chiaro che tutti i vettori, x , con il prodotto interno che svanisce con w soddisfano questa equazione, cioè tutti i vettori ortogonali a w soddisfano questa equazione.
Ora tradurre l'iperpiano lontano dall'origine su un vettore a. L'equazione per il piano ora diventa: , ovvero troviamo che per l'offset b = a T w , che è la proiezione del vettore a sul vettore w .
Senza perdita di generalità possiamo quindi scegliere una perpendicolare al piano, nel qual caso la lunghezza che rappresenta la distanza ortogonale più corta tra l'origine e l'iperpiano.
Quindi si dice che il vettore sia ortogonale all'iperpiano di separazione.
Il motivo per cui è normale per l'iperpiano è perché lo definiamo così: