2.0 Risposta compatibile : mentre la risposta sopra menzionata spiega in dettaglio come utilizzare la GPU sul modello Keras, voglio spiegare come può essere fatto Tensorflow Version 2.0.
Per sapere quante GPU sono disponibili, possiamo utilizzare il codice seguente:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
Per scoprire a quali dispositivi sono assegnate le tue operazioni e i tuoi tensori, inserisci tf.debugging.set_log_device_placement(True)come prima istruzione del tuo programma.
L'abilitazione della registrazione del posizionamento del dispositivo causa la stampa di qualsiasi allocazione o operazione di Tensor. Ad esempio, eseguendo il codice seguente:
tf.debugging.set_log_device_placement(True)
# Create some tensors
a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]])
c = tf.matmul(a, b)
print(c)
fornisce l'output mostrato di seguito:
Esecuzione di op MatMul in device / job: localhost / replica: 0 / task: 0 / device: GPU: 0 tf.Tensor ([[22. 28.] [49. 64.]], shape = (2, 2), dtype = float32)
Per ulteriori informazioni, fare riferimento a questo collegamento