La backpropagation, un'abbreviazione di "propagazione all'indietro degli errori", è un metodo comune di addestramento delle reti neurali artificiali utilizzato insieme a un metodo di ottimizzazione come la discesa del gradiente.
Quando si inizializzano i pesi di connessione in una rete neurale feedforward, è importante inizializzarli in modo casuale per evitare simmetrie che l'algoritmo di apprendimento non sarebbe in grado di rompere. La raccomandazione che ho visto in vari punti (ad es. Nel tutorial MNIST di TensorFlow ) è di usare …
Ho una conoscenza di base di come funzionano gli RNN (e, in particolare, con le unità LSTM). Ho un'idea pittorica dell'architettura di un'unità LSTM, ovvero una cella e alcune porte, che regolano il flusso di valori. Tuttavia, a quanto pare, non ho compreso appieno come LSTM risolva il problema dei …
La normalizzazione in lotti è stata accreditata con sostanziali miglioramenti delle prestazioni nelle reti neurali profonde. Un sacco di materiale su Internet mostra come implementarlo su una base di attivazione per attivazione. Ho già implementato il backprop usando l'algebra della matrice e dato che sto lavorando in linguaggi di alto …
Supponiamo che io usi un RNN / LSTM per fare l'analisi del sentiment, che è un approccio molti-a-uno (vedi questo blog ). La rete viene addestrata attraverso una backpropagation troncata nel tempo (BPTT), dove la rete viene srotolata solo per gli ultimi 30 passaggi. Nel mio caso, ciascuna delle mie …
Se elaboriamo diciamo 10 esempi in un batch, capisco che possiamo sommare la perdita per ogni esempio, ma come funziona la backpropagation per quanto riguarda l'aggiornamento dei pesi per ogni esempio? Per esempio: Esempio 1 -> perdita = 2 Esempio 2 -> perdita = -2 Ciò si traduce in una …
Mi chiedevo se fosse possibile addestrare un SVM (diciamo uno lineare, per semplificare le cose) usando la backpropagation? Attualmente, sono a un blocco stradale, perché posso solo pensare di scrivere l' output del classificatore come f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b))f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b)) f(\mathbf{x};\theta,b) = \text{sgn}(\theta\cdot\mathbf{x} - (b+1)) = \text{sgn}(g(\mathbf{x};\theta,b)) Pertanto, quando proviamo a calcolare il "passaggio …
Attualmente sto lavorando a un software di riconoscimento facciale che utilizza reti neurali di convoluzione per riconoscere i volti. Sulla base delle mie letture, ho riscontrato che una rete neurale convoluzionale ha condiviso pesi, in modo da risparmiare tempo durante l'allenamento. Ma come si adatta la backpropagation in modo che …
Comprendo che il pretrattamento viene utilizzato per evitare alcuni dei problemi con la formazione convenzionale. Se uso la backpropagation con, diciamo un codificatore automatico, so che mi imbatterò in problemi di tempo perché la backpropagation è lenta, e anche che posso rimanere bloccato in optima locale e non apprendere alcune …
Sto attraversando i problemi dei problemi di assegnazione scritta del corso di apprendimento profondo della PNL di Stanford http://cs224d.stanford.edu/assignment1/assignment1_soln Sto cercando di capire la risposta per 3a dove stanno cercando la derivata del vettore per la parola centrale. Supponiamo che ti venga dato un vettore di parola previsto corrispondente alla …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.