Le mie domande sono:
- I modelli lineari generalizzati (GLM) sono garantiti per convergere ad un massimo globale? Se è così, perché?
- Inoltre, quali sono i vincoli sulla funzione di collegamento per assicurare la convessità?
La mia comprensione dei GLM è che massimizzano una funzione di probabilità altamente non lineare. Immagino quindi che ci siano diversi massimi locali e il set di parametri in cui converti dipende dalle condizioni iniziali dell'algoritmo di ottimizzazione. Tuttavia, dopo aver fatto qualche ricerca non ho trovato una singola fonte che indica che ci sono più massimi locali. Inoltre, non conosco molto bene le tecniche di ottimizzazione, ma so che il metodo Newton-Raphson e l'algoritmo IRLS sono molto inclini ai massimi locali.
Per favore, spiega se possibile sia su base intuitiva che matematica!
EDIT: dksahuji ha risposto alla mia domanda originale, ma voglio aggiungere la domanda di follow-up [ 2 ] sopra. ("Quali sono i vincoli sulla funzione di collegamento per assicurare la convessità?")