Sto cercando di risolvere alcuni problemi di ottimizzazione non lineare non vincolati su GPU (CUDA).
La funzione obiettivo è una funzione non lineare regolare, e il suo gradiente è relativamente economico da calcolare analiticamente, quindi non ho bisogno di preoccuparmi dell'approssimazione numerica.
Voglio risolvere questo problema con la maggior parte delle operazioni matematiche su fp32 (per vari motivi), quindi quale metodo di ottimizzazione non lineare è più robusto rispetto agli errori di arrotondamento mentre ha buone prestazioni? (es. gradiente coniugato / quasi newton / regione di fiducia), qualcuno ha provato BFGS su GPU con buoni risultati?
A proposito, l'Assia, se necessario, è relativamente piccola nel mio caso (<64x64 in genere), ma devo risolvere contemporaneamente migliaia di questi problemi di ottimizzazione su piccola scala.