Sto gestendo una rete neurale di apprendimento profondo che è stata addestrata da una GPU. Ora voglio distribuire questo a più host per deduzione. La domanda è: quali sono le condizioni per decidere se dovrei usare GPU o CPU per deduzione?
Aggiunta di maggiori dettagli dai commenti qui sotto.
Sono nuovo di questo, quindi la guida è apprezzata.
Memoria : GPU è K80
Quadro : Cuda e cuDNN
Dimensione dei dati per carichi di lavoro : 20G
Nodi di calcolo da consumare : uno per lavoro, anche se vorrebbe considerare un'opzione di scala
Costo : posso permettermi un'opzione GPU se i motivi hanno senso
Distribuzione : in esecuzione sui propri server bare metal ospitati, non nel cloud.
In questo momento sto funzionando su CPU semplicemente perché l'applicazione funziona bene. Ma al di fuori di questo motivo, non sono sicuro del motivo per cui si dovrebbe anche prendere in considerazione la GPU.