Domande taggate «softmax»

Funzione esponenziale normalizzante che trasforma un vettore numerico in modo tale che tutte le sue voci diventino comprese tra 0 e 1 e sommate insieme a 1. Viene spesso utilizzato come strato finale di una rete neurale che esegue un'attività di classificazione.


6
Backpropagation con Softmax / Cross Entropy
Sto cercando di capire come funziona la backpropagation per un livello di output softmax / cross-entropia. La funzione di errore di entropia incrociata è E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j con e come target e output al neurone , rispettivamente. La somma è su ogni neurone nel livello di output. stesso è …

1
Cross-Entropy o Log Likelihood nel livello Output
Ho letto questa pagina: http://neuralnetworksanddeeplearning.com/chap3.html e diceva che lo strato di output sigmoideo con entropia incrociata è abbastanza simile allo strato di output softmax con verosimiglianza logaritmica. cosa succede se utilizzo sigmoid con verosimiglianza log o softmax con entropia incrociata nel livello di output? va bene? perché vedo che c'è …

4
Perché l'output di softmax non è una buona misura di incertezza per i modelli di Deep Learning?
Lavoro con Convolutional Neural Networks (CNN) da qualche tempo, principalmente su dati di immagine per la segmentazione semantica / segmentazione di istanza. Ho spesso visualizzato il softmax dell'output di rete come una "mappa di calore" per vedere quanto sono alte le attivazioni per pixel per una determinata classe. Ho interpretato …

2
Perché la funzione softmax viene utilizzata per calcolare le probabilità sebbene possiamo dividere ciascun valore per la somma del vettore?
L'applicazione della funzione softmax su un vettore produrrà "probabilità" e valori compresi tra e . 000111 Ma possiamo anche dividere ogni valore per la somma del vettore e questo produrrà probabilità e valori tra e .000111 Ho letto la risposta qui, ma dice che il motivo è perché è differenziabile, …


1
Caret glmnet vs cv.glmnet
Sembra esserci molta confusione nel confronto tra l'uso di glmnetinside caretper cercare un lambda ottimale e l'utilizzo cv.glmnetper fare lo stesso compito. Sono state poste molte domande, ad esempio: Modello di classificazione train.glmnet vs. cv.glmnet? Qual è il modo corretto di usare glmnet con il cursore? Convalida incrociata di `glmnet` …


2
Diverse definizioni della funzione di perdita di entropia crociata
Ho iniziato a conoscere le reti neurali con il tutorial com dot su reti neurali e apprendimento. In particolare nel terzo capitolo c'è una sezione sulla funzione entropia crociata e definisce la perdita di entropia crociata come: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + (1-y_j) \ln (1 - …

2
Quanto è profonda la connessione tra la funzione softmax in ML e la distribuzione di Boltzmann in termodinamica?
La funzione softmax, comunemente usata nelle reti neurali per convertire i numeri reali in probabilità, ha la stessa funzione della distribuzione di Boltzmann, la distribuzione di probabilità sulle energie per un insieme di particelle in equilibrio termico ad una data temperatura T in termodinamica. Vedo alcune chiare ragioni euristiche per …

3
Non linearità prima dello strato finale di Softmax in una rete neurale convoluzionale
Sto studiando e cercando di implementare reti neurali convoluzionali, ma suppongo che questa domanda si applichi ai percetroni multistrato in generale. I neuroni di output nella mia rete rappresentano l'attivazione di ogni classe: il neurone più attivo corrisponde alla classe prevista per un dato input. Per considerare un costo di …




1
Definizione della funzione softmax
Questa domanda fa seguito a stats.stackexchange.com/q/233658 Il modello di regressione logistica per le classi {0, 1} è P(y=1|x)=exp(wTx)1+exp(wTx)P(y=0|x)=11+exp(wTx)P(y=1|x)=exp⁡(wTx)1+exp⁡(wTx)P(y=0|x)=11+exp⁡(wTx) \mathbb{P} (y = 1 \;|\; x) = \frac{\exp(w^T x)}{1 + \exp(w^T x)} \\ \mathbb{P} (y = 0 \;|\; x) = \frac{1}{1 + \exp(w^T x)} Chiaramente queste probabilità si sommano a 1. Impostando …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.