Quando viene risolta la regressione logistica in forma chiusa?


31

Prendi e y { 0 , 1 } e supponiamo di modellare il compito di prevedere y dato x usando la regressione logistica. Quando è possibile scrivere i coefficienti di regressione logistica in forma chiusa?x{0,1}dy{0,1}

Un esempio è quando usiamo un modello saturo.

Cioè, definire , dove i set di indici nel gruppo di potenza di { x 1 , , x d } e f i restituisce 1 se tutte le variabili del i 'th set sono 1, e 0 altrimenti. Poi si può esprimere ogni w ho in questo modello di regressione logistica come un logaritmo di una funzione razionale delle statistiche dei dati.P(y|x)exp(iwifi(xi))i{x1,,xd}fiiwi

Ci sono altri esempi interessanti quando esiste una forma chiusa?


4
Suppongo che intendi "quando sono gli MLE dei parametri in forma chiusa?"
Glen_b

Puoi dare maggiori dettagli su quello che hai fatto? La tua domanda sembra che tu abbia cercato di derivare lo stimatore dei minimi quadrati ordinario per un problema di regressione logistica?
Momo,

1
Grazie per l'interessante post / domanda, Yaroslav. Hai un riferimento per l'esempio che mostri?
Bitwise,

1
È passato un po 'di tempo, ma forse è stato nel libro "Modelli grafici" di Lauritzen. Le basi più ampie della risposta a questa domanda ci sono: ottieni una soluzione a forma chiusa quando il (iper) grafico formato da statistiche sufficienti è cordale
Yaroslav Bulatov

Questo potrebbe essere interessante tandfonline.com/doi/abs/10.1080/… Credo che questo sia un caso speciale di una soluzione analitica quando hai solo una tabella 2x2
Austin,

Risposte:


33

Come ha sottolineato Kjetil B Halvorsen, è a suo modo un miracolo che la regressione lineare ammetta una soluzione analitica. E questo è solo in virtù della linearità del problema (rispetto ai parametri). In OLS, hai che ha le condizioni del primo ordine - 2

i(yixiβ)2minβ,
Per un problema conp
2i(yixiβ)xi=0
pvariabili (compresi costante, se necessario, ci sono alcuni regressione attraverso i problemi di origine, anche), questo è un sistema con equazioni e p incognite. Ancora più importante, è un sistema lineare, quindi puoi trovare una soluzione usando la teoria e la pratica dell'algebra lineare standard . Questo sistema avrà una soluzione con probabilità 1 a meno che tu non abbia variabili perfettamente collineari.pp

Ora, con la regressione logistica, le cose non sono più così facili. Annotando la funzione di verosimiglianza log, e prendendo la sua derivata per trovare l'MLE, otteniamo l

l(y;x,β)=iyilnpi+(1yi)ln(1pi),pi=(1+exp(θi))1,θi=xiβ,
I parametri β inseriscono questo in un modo molto non lineare: per ogni i c'è una funzione non lineare e vengono sommati. Non esiste una soluzione analitica (tranne probabilmente in una situazione banale con due osservazioni, o qualcosa di simile), e bisogna usaremetodi di ottimizzazione non lineareper trovare le stime beta .
lβ=idpidθ(yipi1yi1pi)xi=i[yi11+exp(xiβ)]xi
βiβ^

Uno sguardo un po 'più approfondito al problema (prendendo la seconda derivata) rivela che questo è un problema di ottimizzazione convessa di trovare un massimo di una funzione concava (una parabola multivariata glorificata), quindi esiste una delle due e qualsiasi algoritmo ragionevole dovrebbe trovarla piuttosto rapidamente, o le cose esplodono all'infinito. Quest'ultimo accade alla regressione logistica quando per alcuni cProb[Yi=1|xiβ>c]=1c, cioè hai una previsione perfetta. Questo è un artefatto piuttosto spiacevole: si potrebbe pensare che quando si ha una previsione perfetta, il modello funziona perfettamente, ma abbastanza curiosamente, è il contrario.


la domanda è perché la tua ultima equazione non è risolvibile. è dovuto alla divergenza inversa della funzione logistica a 0 e 1, o è dovuto alla non linearità in generale?
eyaler,

5
(1) Per quanto riguarda il tuo ultimo paragrafo: Dal punto di vista matematico si fa opera "perfettamente", nel senso che un MLE produrrà un perfetto iperpiano di separazione. Se il tuo algoritmo numerico si comporti in modo ragionevole in quella circostanza è una questione separata. Il livellamento di Laplace viene spesso utilizzato in tali situazioni.
cardinale il

@eyaler, direi che ciò è dovuto alla non linearità in generale. La mia comprensione è che esiste un numero limitato di circostanze in cui ciò può essere risolto, anche se non so quali siano queste circostanze.
StasK,

1
Non capisco, quali sono le condizioni matematiche che impediscono al sistema di avere una soluzione a forma chiusa? Esiste una condizione generale in cui le cose in generale non hanno soluzioni in forma chiusa?
Charlie Parker,

il fatto che la regressione logistica non abbia forma chiusa è qualcosa che si può provare osservando l'iterazione di discesa del gradiente per essa?
Charlie Parker,

8

Questo post era originariamente inteso come un lungo commento piuttosto che una risposta completa alla domanda in corso.

Dalla domanda, non è chiaro se l'interesse risiede solo nel caso binario o, forse, in casi più generali in cui possono essere continui o assumere altri valori discreti.

logit(Pr(Yij=1))=αiαj,
αiiYij=1ij

(i,j)α^i correspond to the rank order of Si=jiYij, the sum total of times each object was preferred over another.

To interpret this, imagine a full round-robin tournament in your favorite competitive sport. Then, this result says that the Bradley–Terry model ranks the players/teams according to their winning percentage. Whether this is an encouraging or disappointing result depends on your point of view, I suppose.

NB This rank-ordering result does not hold, in general, when a full round-robin is not played.


2
I was interested in binary because it was easiest to analyze. I have found a very broad sufficient condition in works of Lauritzen -- you get closed form if a corresponding log-linear model is decomposable
Yaroslav Bulatov
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.