Gli algoritmi di machine learning utilizzano sempre l'ottimizzazione. Riduciamo al minimo la perdita, o l'errore o massimizziamo alcune funzioni di punteggio. La discesa gradiente è l'algoritmo di ottimizzazione "ciao mondo" coperto probabilmente da qualsiasi corso di apprendimento automatico. È ovvio nel caso della regressione o dei modelli di classificazione, ma anche con attività come il clustering stiamo cercando una soluzione che si adatti in modo ottimale ai nostri dati (ad es. K-mean minimizza la somma dei quadrati all'interno del cluster). Quindi, se vuoi capire come funzionano gli algoritmi di machine learning, aiuta a saperne di più sull'ottimizzazione. Inoltre, se hai bisogno di fare cose come l'ottimizzazione dell'iperparametro, allora stai anche usando direttamente l'ottimizzazione.
Si potrebbe sostenere che l'ottimizzazione convessa non dovrebbe essere così interessante per l'apprendimento automatico poiché invece di occuparsi delle funzioni convesse , spesso incontriamo superfici di perdita come quella qui sotto, che sono tutt'altro che convesse .
(fonte: https://www.cs.umd.edu/~tomg/projects/landscapes/ e arXiv: 1712.09913 )
Tuttavia, come menzionato in altre risposte, l'ottimizzazione convessa è più veloce, più semplice e meno intensiva dal punto di vista computazionale, quindi è spesso più facile "convalidare" un problema (renderlo amichevole per l'ottimizzazione convessa), quindi utilizzare l'ottimizzazione non convessa. Ad esempio, la pendenza del gradiente e algoritmi simili sono comunemente usati nell'apprendimento automatico, specialmente per le reti neurali, perché "funzionano", si ridimensionano e sono ampiamente implementati in diversi software, tuttavia non sono i migliori che possiamo ottenere e avere le loro insidie , come discusso dal discorso di Ali Rahimi al NIPS 2017 .
D'altra parte, gli algoritmi di ottimizzazione non convessa come gli algoritmi evolutivi sembrano guadagnare sempre più riconoscimento nella comunità ML, ad esempio la formazione di reti neurali mediante neuroevoluzione sembra essere un argomento di ricerca recente (vedi anche arXiv: 1712.07897 ).