Mi chiedo come interpretare un'architettura ricorrente in un contesto EEG. In particolare, sto pensando a questa come una CNN ricorrente (al contrario di architetture come LSTM), ma forse si applica anche ad altri tipi di reti ricorrenti
Quando leggo degli R-CNN, di solito sono spiegati in contesti di classificazione delle immagini. Sono in genere descritti come "apprendimento nel tempo" o "incluso l'effetto del tempo-1 sull'input corrente"
Questa interpretazione / spiegazione diventa davvero confusa quando si lavora con i dati EEG. Un esempio di R-CNN utilizzato su dati EEG può essere trovato qui
Immagina di avere esempi di allenamento composti ciascuno da un array 1x512. Questo array rileva una lettura di tensione per 1 elettrodo in 512 punti temporali consecutivi. Se lo uso come input per una CNN ricorrente (usando le convoluzioni 1D), la parte ricorrente del modello non sta effettivamente catturando il "tempo", giusto? (come sarebbe implicito dalle descrizioni / spiegazioni discusse in precedenza) Perché in questo contesto il tempo è già catturato dalla seconda dimensione dell'array
Quindi, con una configurazione come questa, cosa ci consente effettivamente la parte ricorrente della rete di modellare che una normale CNN non può (se non il tempo)?
Mi sembra che ricorrere significhi semplicemente fare una convoluzione, aggiungere il risultato all'input originale e contorcersi di nuovo. Questo viene ripetuto per il numero x di passaggi ricorrenti. Quale vantaggio offre questo processo?