Il problema con cui ho a che fare è prevedere i valori delle serie temporali. Sto guardando una serie temporale alla volta e, ad esempio, basandomi sul 15% dei dati di input, vorrei prevederne i valori futuri. Finora mi sono imbattuto in due modelli: LSTM (memoria a breve termine; una …
Sto cercando di iniziare a conoscere gli RNN e sto usando Keras. Comprendo le premesse di base dei livelli Vanilla RNN e LSTM, ma ho difficoltà a comprendere un certo punto tecnico per l'allenamento. Nella documentazione di keras , dice che l'input di un layer RNN deve avere forma (batch_size, …
Quanti parametri ha un singolo LSTM in pila? Il numero di parametri impone un limite inferiore al numero di esempi di allenamento richiesti e influenza anche il tempo di allenamento. Pertanto, conoscere il numero di parametri è utile per i modelli di training che utilizzano LSTM.
Quindi, recentemente c'è un documento sulla normalizzazione dei livelli . C'è anche una sua implementazione su Keras. Ma ricordo che ci sono articoli intitolati Recurrent Batch Normalization (Cooijmans, 2016) e Batch Normalized Recurrent Neural Networks (Laurent, 2015). Qual è la differenza tra quei tre? C'è questa sezione di lavoro correlato …
Dal codice Tensorflow : Tensorflow. RnnCell. num_units: int, The number of units in the LSTM cell. Non riesco a capire cosa significa questo. Quali sono le unità della cella LSTM. Input, Output e dimenticare le porte? Significa "numero di unità nel livello di proiezione ricorrente per Deep LSTM". Allora perché …
Creo un corr()df da un df originale. Il corr()df è venuto fuori 70 X 70 ed è impossibile visualizzare il heatmap ... sns.heatmap(df). Se provo a visualizzare il corr = df.corr(), la tabella non si adatta allo schermo e posso vedere tutte le correlazioni. È un modo per stampare l'intero …
Durante la lettura della generazione di testo con le reti neurali ricorrenti ho notato che alcuni esempi sono stati implementati per generare testo parola per parola e altri carattere per carattere senza dichiarare effettivamente il perché. Quindi, qual è la differenza tra i modelli RNN che prevedono la base del …
Sto cercando di creare una rete neurale usando serie temporali come input, al fine di addestrarlo in base al tipo di ogni serie. Ho letto che usando RNN puoi dividere l'input in batch e usare ogni punto della serie temporale in singoli neuroni e infine addestrare la rete. Quello che …
Sto cercando di capire le dimensioni di ciascuna variabile in un RNN nel livello di dimenticanza, tuttavia, non sono sicuro di essere sulla strada giusta. L'immagine e l'equazione successive sono tratte dal post sul blog di Colah "Capire le reti LSTM" : dove: xtxtx_t è un input di dimensione vettorem∗1m∗1m*1 …
Faccio fatica a interpretare la differenza di codifica di Keras per l'etichettatura della sequenza uno-a-molti (es. Classificazione di singole immagini) e molti-a-molti (ad es. Classificazione di sequenze di immagini). Vedo spesso due diversi tipi di codici: Tipo 1 è dove nessun TimeDistributed applicato in questo modo: model=Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], …
Ho cercato di capire come rappresentare e dati di forma per fare un multidimensionale e multivariata tempo serie previsione utilizzando Keras (o tensorflow), ma sono ancora molto poco chiaro dopo aver letto molti post del blog / tutorial / documentazione su come presentare i dati nel forma corretta (la maggior …
Esistono delle regole empiriche (o regole effettive) relative alla quantità minima, massima e "ragionevole" di celle LSTM che dovrei usare? In particolare mi riferisco a BasicLSTMCell di TensorFlow e num_unitsproprietà. Si prega di supporre che ho un problema di classificazione definito da: t - number of time steps n - …
Sto prototipando un'applicazione e ho bisogno di un modello linguistico per calcolare la perplessità su alcune frasi generate. Esiste un modello di linguaggio addestrato in Python che posso usare facilmente? Qualcosa di semplice come model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert …
Utilizzando un multi-layer LSTMcon dropout, è consigliabile inserire il dropout su tutti i layer nascosti e sui layer Dense di output? Nel documento di Hinton (che proponeva il Dropout) metteva il Dropout solo sui livelli Dense, ma ciò era dovuto al fatto che gli strati interni nascosti erano convoluzionali. Ovviamente, …
Sono molto nuovo di Deep learning e sono particolarmente interessato a sapere cosa sono LSTM e BiLSTM e quando usarli (principali aree di applicazione). Perché LSTM e BILSTM sono più popolari di RNN? Possiamo usare queste architetture di apprendimento profondo in problemi senza supervisione?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.