Sì, è possibile, e in effetti questo è esattamente ciò che fa il pacchetto R GLMNET per la regressione logistica multinomiale. Scrivere la funzione di verosimiglianza come:
LogL=∑i∑cniclog(pic)
Dove indica osservazioni ec c indica le categorie multinomiali n i c è il conteggio osservato per l'osservazione i nella categoria c . Le osservazioni sono definite dalle loro uniche combinazioni di covariate - o in alternativa possiamo consentire duplicati e impostare ciascuno n i c = 1 in modo da avere dati "binari" categorici (.... non sappiamo quale sia il plurale di binario .. ..). Per la regressione logistica le probabilità sono definite come:icnicicnic=1
pic=exp(xTiβc)∑c′exp(xTiβc′)
Si tratta di una parametrizzazione non completa e può essere utile se si utilizza una probabilità penalizzata (come GLMNET). In linea di principio potremmo usare IRLS / newton rhapson sulla matrice beta completa , tuttavia si finisce con matrici di peso non diagonali. In alternativa, possiamo ottimizzare lo "stile di Gibbs" fissando tutte le categorie beta ad eccezione di una e quindi ottimizzando appena sopra quella categoria. Quindi passare alla categoria successiva e così via. Puoi vederlo perché le probabilità hanno il modulo(β1,…,βC)
pic′=B
pic=exp(xTiβc)exp(xTiβc)+A where ∂A∂βc=0
pic′=Bexp(xTiβc)+A where ∂B∂βc=0
Che l'quadratica espansione merito avrà la stessa forma di regressione logistica, ma con le IRLS pesi calcolati in modo diverso - anche se abbiamo ancora W i i , c = n i c p i c ( 1 - p i c ) nel solito ( X T W X ) - 1 X T W Y aggiornamento della beta.βcWii,c=nicpic(1−pic)(XTWX)−1XTWY