Domande taggate «backpropagation»

La backpropagation, un'abbreviazione di "propagazione all'indietro degli errori", è un metodo comune di addestramento delle reti neurali artificiali utilizzato insieme a un metodo di ottimizzazione come la discesa del gradiente.



1
Forma matrice di backpropagation con normalizzazione batch
La normalizzazione in lotti è stata accreditata con sostanziali miglioramenti delle prestazioni nelle reti neurali profonde. Un sacco di materiale su Internet mostra come implementarlo su una base di attivazione per attivazione. Ho già implementato il backprop usando l'algebra della matrice e dato che sto lavorando in linguaggi di alto …



2
Come addestrare un SVM tramite backpropagation?
Mi chiedevo se fosse possibile addestrare un SVM (diciamo uno lineare, per semplificare le cose) usando la backpropagation? Attualmente, sono a un blocco stradale, perché posso solo pensare di scrivere l' output del classificatore come f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b))f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b)) f(\mathbf{x};\theta,b) = \text{sgn}(\theta\cdot\mathbf{x} - (b+1)) = \text{sgn}(g(\mathbf{x};\theta,b)) Pertanto, quando proviamo a calcolare il "passaggio …



1
Sfumature per skipgram word2vec
Sto attraversando i problemi dei problemi di assegnazione scritta del corso di apprendimento profondo della PNL di Stanford http://cs224d.stanford.edu/assignment1/assignment1_soln Sto cercando di capire la risposta per 3a dove stanno cercando la derivata del vettore per la parola centrale. Supponiamo che ti venga dato un vettore di parola previsto corrispondente alla …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.