Domande taggate «cross-entropy»


3
Qual è la differenza tra sparse_softmax_cross_entropy_with_logits e softmax_cross_entropy_with_logits?
Recentemente mi sono imbattuto in tf.nn.sparse_softmax_cross_entropy_with_logits e non riesco a capire quale sia la differenza rispetto a tf.nn.softmax_cross_entropy_with_logits . L'unica differenza è che i vettori di addestramento ydevono essere codificati a caldo quando si usano sparse_softmax_cross_entropy_with_logits? Leggendo l'API, non sono riuscito a trovare altre differenze rispetto a softmax_cross_entropy_with_logits. Ma allora …

3
Cos'è l'entropia incrociata?
So che ci sono molte spiegazioni su cosa sia l'entropia incrociata, ma sono ancora confuso. È solo un metodo per descrivere la funzione di perdita? Possiamo usare l'algoritmo di discesa del gradiente per trovare il minimo usando la funzione di perdita?
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.