In breve, la regressione logistica ha connotazioni probabilistiche che vanno oltre l'uso del classificatore in ML. Ho alcune note sulla regressione logistica qui .
L'ipotesi nella regressione logistica fornisce una misura dell'incertezza nel verificarsi di un risultato binario basato su un modello lineare. L'output è limitato asintoticamente tra 0 e 1 e dipende da un modello lineare, in modo tale che quando la linea di regressione sottostante ha valore 0 , l'equazione logistica è 0,5 = e01 + e0 , fornendo un punto di taglio naturale ai fini della classificazione. Tuttavia, è a costo di scartare le informazioni di probabilità nel risultato effettivo dih ( ΘTx ) = eΘTX1 + eΘTX , che spesso è interessante (ad es. Probabilità di insolvenza del prestito dato reddito, punteggio di credito, età, ecc.).
L'algoritmo di classificazione perceptron è una procedura più semplice, basata su prodotti a punti tra esempi e pesi . Ogni volta che un esempio viene classificato erroneamente, il segno del prodotto punto è in contrasto con il valore di classificazione ( - 1 e 1 ) nel set di addestramento. Per correggere ciò, il vettore di esempio verrà aggiunto o sottratto in modo iterativo dal vettore di pesi o coefficienti, aggiornando progressivamente i suoi elementi:
Vettorialmente, le caratteristiche o gli attributi di un esempio sono x , e l'idea è di "passare" l'esempio se:dX
o ...Σ1dθioXio> theshold
. La funzione segno risulta in 1 o - 1 , a differenza di 0 e 1 nella regressione logistica.h ( x ) = segno ( ∑1dθioXio- theshold )1- 101
La soglia verrà assorbita nel coefficiente di polarizzazione , . La formula è ora:+ θ0
, o vettoriale: h ( x ) = segno ( θ T x ) .h ( x ) = segno ( ∑0dθioXio)h ( x ) = segno ( θTx )
I punti classificati in modo errato avranno , il che significa che il prodotto punto di Θ e x n sarà positivo (vettori nella stessa direzione), quando y n è negativo o il prodotto punto sarà negativo (vettori in direzioni opposte), mentre y n è positivo.segno ( θTx ) ≠ ynΘXnynyn
Ho lavorato sulle differenze tra questi due metodi in un set di dati dello stesso corso , in cui i risultati del test in due esami separati sono correlati all'accettazione finale al college:
Il limite di decisione può essere facilmente trovato con la regressione logistica, ma è stato interessante vedere che sebbene i coefficienti ottenuti con perceptron fossero molto diversi rispetto alla regressione logistica, la semplice applicazione della funzione ai risultati ha prodotto altrettanto una classificazione algoritmo. In effetti la massima precisione (il limite fissato dall'inseparabilità lineare di alcuni esempi) è stata raggiunta dalla seconda iterazione. Ecco la sequenza delle linee di divisione dei confini mentre 10 iterazioni si avvicinano ai pesi, a partire da un vettore casuale di coefficienti:segno ( ⋅ )10
L'accuratezza della classificazione in funzione del numero di iterazioni aumenta rapidamente e altopiani al , coerentemente alla velocità con cui viene raggiunto un limite di decisione quasi ottimale nel videoclip sopra. Ecco la trama della curva di apprendimento:90 %
Il codice utilizzato è qui .