Sto usando una versione standard della regressione logistica per adattare le mie variabili di input alle variabili di output binarie.
Tuttavia, nel mio problema, le uscite negative (0s) superano di gran lunga le uscite positive (1s). Il rapporto è 20: 1. Quindi, quando alleno un classificatore, sembra che anche le caratteristiche che suggeriscono fortemente la possibilità di un output positivo abbiano ancora valori molto bassi (altamente negativi) per i loro parametri corrispondenti. Mi sembra che ciò accada perché ci sono troppi esempi negativi che tirano i parametri nella loro direzione.
Quindi mi chiedo se posso aggiungere pesi (diciamo usando 20 invece di 1) per gli esempi positivi. È probabile che ciò avvenga affatto? E se è così, come dovrei aggiungere i pesi (nelle equazioni di seguito).
La funzione di costo è simile alla seguente:
Il gradiente di questa funzione di costo (wrt ) è:
Qui = numero di casi di test, = matrice delle caratteristiche, = vettore di output, = funzione sigmoid, = parametri che stiamo cercando di imparare.x y h θ
Finalmente corro la discesa del gradiente per trovare il più basso possibile. L'implementazione sembra funzionare correttamente.