Domande taggate «lstm»

Una memoria a breve termine (LSTM) è un'architettura di rete neurale che contiene blocchi NN ricorrenti che possono ricordare un valore per un periodo di tempo arbitrario.


2
Differenza tra una singola rete LSTM e una rete neurale LSTM a 3 unità
LSTM nel seguente codice Keras input_t = Input((4, 1)) output_t = LSTM(1)(input_t) model = Model(inputs=input_t, outputs=output_t) print(model.summary()) può essere rappresentato come Capisco che quando chiamiamo model.predict(np.array([[[1],[2],[3],[4]]]))la (sola) unità LSTM prima elabora il vettore [1], quindi [2] più il feedback dall'input precedente e così via fino al vettore [4]. In altre …

2
Gestire parole sconosciute nelle attività di modellazione del linguaggio usando LSTM
Per un'attività di elaborazione del linguaggio naturale (NLP) si usano spesso i vettori word2vec come incorporamento per le parole. Tuttavia, potrebbero esserci molte parole sconosciute che non vengono catturate dai vettori word2vec semplicemente perché queste parole non vengono visualizzate abbastanza spesso nei dati di addestramento (molte implementazioni usano un conteggio …

3
Struttura della rete neurale ricorrente (LSTM, GRU)
Sto cercando di capire l'architettura degli RNN. Ho trovato questo tutorial molto utile: http://colah.github.io/posts/2015-08-Understanding-LSTMs/ Soprattutto questa immagine: Come si inserisce in una rete feed-forward? Questa immagine è solo un altro nodo in ogni livello?

1
Comprensione della topologia LSTM
Come molti altri, ho trovato le risorse qui e qui per essere immensamente utili per comprendere le cellule LSTM. Sono fiducioso di capire come i valori scorrono e vengono aggiornati e sono abbastanza sicuro di aggiungere anche le "connessioni spioncino" menzionate, ecc. Nel mio esempio, ho ad ogni passo un …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.