2.0 Risposta compatibile : mentre la risposta sopra menzionata spiega in dettaglio come utilizzare la GPU sul modello Keras, voglio spiegare come può essere fatto Tensorflow Version 2.0
.
Per sapere quante GPU sono disponibili, possiamo utilizzare il codice seguente:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
Per scoprire a quali dispositivi sono assegnate le tue operazioni e i tuoi tensori, inserisci tf.debugging.set_log_device_placement(True)
come prima istruzione del tuo programma.
L'abilitazione della registrazione del posizionamento del dispositivo causa la stampa di qualsiasi allocazione o operazione di Tensor. Ad esempio, eseguendo il codice seguente:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
fornisce l'output mostrato di seguito:
Esecuzione di op MatMul in device / job: localhost / replica: 0 / task: 0 / device: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], shape = (2, 2), dtype = float32)
Per ulteriori informazioni, fare riferimento a questo collegamento