Sono interessato a massimizzare una funzione , dove θ ∈ R p .
Il problema è che non conosco la forma analitica della funzione o dei suoi derivati. L'unica cosa che posso fare è quello di valutare la funzione di punto-saggio, collegando un valore e ottenere una stima RUMOROSO f ( θ * ) in quel punto. Se lo desidero, posso ridurre la variabilità di queste stime, ma devo pagare costi di calcolo crescenti.
Ecco cosa ho provato finora:
Discesa più ripida stocastica con differenze finite: può funzionare ma richiede molta ottimizzazione (es. Sequenza di guadagno, fattore di scala) ed è spesso molto instabile.
Ricottura simulata: funziona ed è affidabile, ma richiede molte valutazioni delle funzioni, quindi l'ho trovato abbastanza lento.
Quindi sto chiedendo suggerimenti / idee su possibili metodi di ottimizzazione alternativi che possono funzionare in queste condizioni. Sto mantenendo il problema il più generale possibile al fine di incoraggiare suggerimenti provenienti da aree di ricerca diverse dalle mie. Devo aggiungere che sarei molto interessato a un metodo che potrebbe darmi una stima dell'assia alla convergenza. Questo perché posso usarlo per stimare l'incertezza dei parametri . Altrimenti dovrò usare differenze finite attorno al massimo per ottenere una stima.