In particolare, suppongo di chiedermi questa affermazione:
Le versioni principali future di TensorFlow consentiranno ai gradienti di fluire nelle etichette immesse sul backprop per impostazione predefinita.
Che è mostrato quando uso tf.nn.softmax_cross_entropy_with_logits
. Nello stesso messaggio mi spinge a dare un'occhiata tf.nn.softmax_cross_entropy_with_logits_v2
. Ho consultato la documentazione ma afferma solo che per tf.nn.softmax_cross_entropy_with_logits_v2
:
La backpropagazione avverrà sia nei logit che nelle etichette. Per impedire la backpropagation in etichette, passare i tensori di etichette attraverso uno stop_gradients prima di inviarlo a questa funzione.
al contrario di tf.nn.softmax_cross_entropy_with_logits
:
La backpropagation avverrà solo nei logit.
Essendo molto nuovo sull'argomento (sto cercando di farmi strada attraverso alcuni tutorial di base) queste affermazioni non sono molto chiare. Ho una comprensione superficiale della backpropagation, ma cosa significa in realtà la precedente dichiarazione? Come sono collegate la backpropagation e le etichette? E come cambia il modo in cui lavoro tf.nn.softmax_cross_entropy_with_logits_v2
rispetto all'originale?
softmax_..._with_logits_v2
funzioneranno comesoftmax_with_logits
? (O potrei usare tf.stop_gradient sulla variabile label.)