Recentemente mi sono imbattuto in tf.nn.sparse_softmax_cross_entropy_with_logits e non riesco a capire quale sia la differenza rispetto a tf.nn.softmax_cross_entropy_with_logits .
L'unica differenza è che i vettori di addestramento y
devono essere codificati a caldo quando si usano sparse_softmax_cross_entropy_with_logits
?
Leggendo l'API, non sono riuscito a trovare altre differenze rispetto a softmax_cross_entropy_with_logits
. Ma allora perché abbiamo bisogno della funzione extra?
Non dovrebbe softmax_cross_entropy_with_logits
produrre gli stessi risultati di sparse_softmax_cross_entropy_with_logits
, se viene fornito con dati / vettori di addestramento con codifica singola?