Comprendo che uno dei motivi per cui la regressione logistica viene spesso utilizzato per prevedere le percentuali di clic sul Web è che produce modelli ben calibrati. C'è una buona spiegazione matematica per questo?
Comprendo che uno dei motivi per cui la regressione logistica viene spesso utilizzato per prevedere le percentuali di clic sul Web è che produce modelli ben calibrati. C'è una buona spiegazione matematica per questo?
Risposte:
Sì.
Il vettore di probabilità previsto dalla regressione logistica soddisfa l'equazione della matrice
Dove è la matrice di progettazione e y è il vettore di risposta. Questo può essere visto come un insieme di equazioni lineari, quella derivante da ciascuna colonna della matrice disegno X .
Specializzata nella colonna di intercettazione (che è una riga nella matrice trasposta), l'equazione lineare associata è
quindi la probabilità media complessiva prevista è uguale alla media della risposta.
Più in generale, per una colonna di funzione binaria , l'equazione lineare associata è
quindi la somma (e quindi la media) delle probabilità previste è uguale alla somma della risposta, anche quando è specializzata in quei record per i quali .
Penso di poterti fornire una spiegazione di facile comprensione come segue:
Noi sappiamo che la sua funzione di perdita può essere espresso come la seguente funzione:
Dovemrappresenta il numero di tutti i campioni di addestramento, l'etichetta del campione, probabilità prevista del campione ith: . (nota il pregiudizioqui)
Poiché l'obiettivo dell'allenamento è minimizzare la funzione di perdita, valutiamo la sua derivata parziale rispetto a ciascun parametro (la derivazione dettagliata può essere trovata qui ):
E impostandolo su zero yeils:
Ciò significa che se il modello è completamente addestrato, le probabilità previste che otteniamo per l'insieme di addestramento si distribuiscono in modo tale che per ogni caratteristica la somma dei valori ponderati (tutti) di quella caratteristica sia uguale alla somma dei valori di quella caratteristica dei campioni positivi.
Quanto sopra si adatta a tutte le funzionalità così come il bias . Impostazione come 1 e come anni:
Ovviamente possiamo vedere che la regressione logistica è ben calibrata.
Riferimento: modelli log-lineari e campi casuali condizionali di Charles Elkan