Ho iniziato a conoscere le reti neurali con il tutorial com dot su reti neurali e apprendimento. In particolare nel terzo capitolo c'è una sezione sulla funzione entropia crociata e definisce la perdita di entropia crociata come:
Tuttavia, leggendo l' introduzione di Tensorflow , la perdita di entropia crociata è definita come:
(quando si usano gli stessi simboli di cui sopra)
Quindi, cercando in giro per trovare quello che stava succedendo, ho trovato un'altra serie di note: ( https://cs231n.github.io/linear-classify/#softmax-classifier ) che utilizza una definizione completamente diversa della perdita di entropia crociata, anche se questo tempo per un classificatore softmax piuttosto che per una rete neurale.
Qualcuno può spiegarmi cosa sta succedendo qui? Perché ci sono discrepanze tra l'altro. quali sono le persone che definiscono la perdita di entropia? C'è solo un principio generale?