Recentemente mi sono imbattuto in tf.nn.sparse_softmax_cross_entropy_with_logits e non riesco a capire quale sia la differenza rispetto a tf.nn.softmax_cross_entropy_with_logits .
L'unica differenza è che i vettori di addestramento ydevono essere codificati a caldo quando si usano sparse_softmax_cross_entropy_with_logits?
Leggendo l'API, non sono riuscito a trovare altre differenze rispetto a softmax_cross_entropy_with_logits. Ma allora perché abbiamo bisogno della funzione extra?
Non dovrebbe softmax_cross_entropy_with_logitsprodurre gli stessi risultati di sparse_softmax_cross_entropy_with_logits, se viene fornito con dati / vettori di addestramento con codifica singola?