Le reti neurali convoluzionali sono un tipo di rete neurale in cui esistono solo sottoinsiemi di possibili connessioni tra strati per creare regioni sovrapposte. Sono comunemente usati per compiti visivi.
Nell'implementazione di ResNet di Tensorflow , trovo che utilizzino l'inizializzatore di ridimensionamento della varianza, trovo anche che l'inizializzatore di xavier sia popolare. Non ho troppa esperienza su questo, che è meglio in pratica?
Sto lavorando alla classificazione della fase del sonno. Ho letto alcuni articoli di ricerca su questo argomento, molti dei quali hanno utilizzato il metodo SVM o ensemble. È una buona idea utilizzare una rete neurale convoluzionale per classificare il segnale EEG monodimensionale? Sono nuovo di questo tipo di lavoro. Mi …
Comprendo i livelli convoluzionali e di raggruppamento, ma non riesco a vedere il motivo di un livello completamente connesso nelle CNN. Perché il livello precedente non è collegato direttamente al livello di output?
L'architettura AlexNet utilizza zero-padding come mostrato nella figura: Tuttavia, non vi è alcuna spiegazione nel documento sul perché questa imbottitura è stata introdotta. Il corso Standford CS 231n insegna che utilizziamo l'imbottitura per preservare le dimensioni spaziali: Mi chiedo è l'unica ragione per cui abbiamo bisogno di imbottitura? Voglio dire, …
C'è qualche differenza tra "apprendimento del trasferimento" e "adattamento del dominio"? Non conosco il contesto, ma la mia comprensione è che abbiamo un set di dati 1 e ci alleniamo su di esso, dopo di che abbiamo un altro set di dati 2 per il quale vogliamo adattare il nostro …
Stavo esaminando i documenti di convoluzione di keras e ho trovato due tipi di convulsioni Conv1D e Conv2D. Ho fatto qualche ricerca sul web e questo è ciò che capisco di Conv1D e Conv2D; Conv1D viene utilizzato per le sequenze e Conv2D utilizza per le immagini. Ho sempre pensato che …
Le reti neurali convoluzionali più comuni contengono livelli di pool per ridurre le dimensioni delle funzionalità di output. Perché non sono riuscito a ottenere la stessa cosa semplicemente aumentando il passo del livello convoluzionale? Cosa rende necessario il livello di pooling?
Ho visto trame di errore di test / allenamento improvvisamente cadere a certe epoche alcune volte durante l'allenamento della rete neurale, e mi chiedo che cosa causi questi salti di prestazione: Questa immagine è tratta da Kaiming He Github, ma trame simili appaiono in molti giornali.
Ho un paio di domande che mi confondono riguardo alla CNN. 1) Le funzionalità estratte utilizzando CNN sono invarianti di scala e rotazione? 2) I kernel che utilizziamo per la convoluzione con i nostri dati sono già definiti in letteratura? che tipo di questi kernel sono? è diverso per ogni …
Quando apprendo la rete neurale convoluzionale, ho domande riguardanti la figura seguente. 1) C1 nel layer 1 ha 6 mappe caratteristiche, significa che ci sono sei kernel convoluzionali? Ogni kernel convoluzionale viene utilizzato per generare una mappa delle caratteristiche basata sull'input. 2) S1 nel livello 2 ha 6 mappe caratteristiche, …
Sto studiando reti neurali convoluzionali (CNN) a causa delle loro applicazioni nella visione artificiale. Ho già familiarità con le reti neurali standard feed-foward, quindi spero che alcune persone qui possano aiutarmi a fare un passo in più nella comprensione delle CNN. Ecco cosa penso delle CNN: Nei tradizionali NN feed-foward, …
Cosa trasmette il numero di filtri in uno strato di convoluzione? In che modo questo numero influisce sulle prestazioni o sulla qualità dell'architettura? Voglio dire dovremmo sempre optare per un numero maggiore di filtri? cosa c'è di buono in loro? e in che modo le persone assegnano un numero diverso …
Sto cercando di realizzare un progetto di riconoscimento ottico dei caratteri (OCR). Dopo aver fatto qualche ricerca mi sono imbattuto in un'architettura che sembra interessante: CNN + RNN + CTC. Ho familiarità con le reti neurali contorte (CNN) e le reti neurali ricorrenti (RNN), ma cos'è la classificazione temporale dei …
Stavo leggendo dell'ottimizzatore Adam per Deep Learning e mi sono imbattuto nella frase seguente nel nuovo libro Deep Learning di Begnio, Goodfellow e Courtville: Adam include correzioni di bias alle stime sia dei momenti del primo ordine (il termine momentum) sia dei momenti (non centrati) del secondo ordine per tenere …
Nelle reti neurali convoluzionali (CNN) la matrice di pesi ad ogni passo viene capovolta per ottenere righe e colonne per ottenere la matrice del kernel, prima di procedere con la convoluzione. Questo è spiegato in una serie di video di Hugo Larochelle qui : Il calcolo delle mappe nascoste corrisponderebbe …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.