Regressione logistica per multiclasse


10

Ho ottenuto il modello per la regressione logistica per la multiclasse che è data da

P(Y=j|X(io))=exp(θjTX(io))1+Σm=1Kexp(θmTX(io))

dove k è il numero di classi theta è il parametro da stimare j è la jth class Xi è i dati di allenamento

Beh, una cosa che non ho capito è come mai il denominatore parte normalizzato il modello. Voglio dire, fa rimanere la probabilità tra 0 e 1.

1+Σm=1Kexp(θmTX(io))

Voglio dire, sono abituato alla regressione logistica

P(Y=1|X(io))=1/(1+exp(-θTX(io)))

In realtà, sono confuso con la cosa della nomalizzazione. In questo caso, poiché si tratta di una funzione sigmoid, non consente mai che il valore sia inferiore a 0 o maggiore di 1. Ma sono confuso nel caso multi classe. Perché è così?

Questo è il mio riferimento https://list.scms.waikato.ac.nz/pipermail/wekalist/2005-February/029738.html . Penso che avrebbe dovuto essere la normalizzazione di

P(Y=j|X(io))=exp(θjTX(io))Σm=1Kexp(θmTX(io))

2
Suggerimento: nella regressione logistica ci sono implicitamente due probabilità da affrontare: la probabilità e la probabilità Y = 0 . Tali probabilità devono essere pari a 1 . Y=1Y=01
whuber

1
Sulla base di alcuni dei tuoi altri post, sai come contrassegnare le equazioni. Le equazioni di testo qui sono difficili da leggere e i (pedici?) Sono confusi - puoi segnarli con ? LUNTEX
Macro,

2
Poiché pubblichi così tante domande qui, ti preghiamo di mettere in pausa e leggere le nostre FAQ su come porre buone domande. Leggi l'aiuto per Markup X in modo da poter rendere leggibili le tue equazioni. TEX
whuber

Ho modificato l'equazione. @ Whuber In realtà, sono confuso in relazione alla regressione logistica multiclasse e non a quella binaria. Mi preoccupo come mai quando aggiungo tutti gli elementi nel donominatore normalizzato la probabilità
user34790

@ user34790, quando si divide ogni termine per la somma, le probabilità della singola classe si sommano a 1. Che cosa è a proposito? X(io)
Macro,

Risposte:


13

La tua formula è sbagliata (il limite superiore della somma). Nella regressione logistica con classi ( K > 2 ), fondamentalmente si creano modelli di regressione logistica binaria K - 1 in cui si sceglie una classe come riferimento o pivot. Di solito, l'ultima classe K viene selezionata come riferimento. Pertanto, la probabilità della classe di riferimento può essere calcolata da P ( y i = K | x i ) = 1 - K - 1 k = 1 P ( y i | xKK>2K-1KLa forma generale della probabilità è P ( y i = k | x i ) = exp ( θ T i x i )

P(yio=K|Xio)=1-ΣK=1K-1P(yio=K|Xio).
Poiché laclasseKè il tuo riferimentoθK=(0,,0)Te quindiK i=1exp(θ T i xi)=exp(0)+ K - 1 i=1exp(
P(yio=K|Xio)=exp(θioTXio)Σio=1Kexp(θioTXio).
KθK=(0,...,0)TAlla fine ottieni la seguente formula per tuttik<K: P(yi=k|xi)=exp(θ T i xi)
Σio=1Kexp(θioTXio)=exp(0)+Σio=1K-1exp(θioTXio)=1+Σio=1K-1exp(θioTXio).
K<K
P(yio=K|Xio)=exp(θioTXio)1+Σio=1K-1exp(θioTXio)

4
notare che la scelta della classe di riferimento non è importante, se si sta effettuando la massima probabilità. Ma se stai facendo la massima probabilità penalizzata, o inferenza bayesiana, spesso può essere più utile lasciare le probabilità eccessivamente parametrizzate e lasciare che la penalità scelga un modo di gestire l'eccessiva parametrizzazione. Questo perché la maggior parte delle funzioni penali / priori non sono invarianti rispetto alla scelta della classe di riferimento
Probislogic

ioioK

4

KK-1exp(0)Kθ=0 .

θ1X=B

exp(B)exp(0)+exp(B)=exp(0)exp(0)+exp(-B)=11+exp(-B)
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.