Le reti neurali convoluzionali sono un tipo di rete neurale in cui esistono solo sottoinsiemi di possibili connessioni tra strati per creare regioni sovrapposte. Sono comunemente usati per compiti visivi.
Se ho una rete neurale convoluzionale (CNN), che ha circa 1.000.000 di parametri, quanti dati di addestramento sono necessari (supponiamo che stia facendo una pendenza stocastica)? C'è qualche regola empirica? Note aggiuntive: quando ho eseguito la discesa gradiente stocastica (ad es. 64 patch per 1 iterazione), dopo ~ 10000 iterazioni, …
In alcuni tutorial ho scoperto che l'inizializzazione del peso "Xavier" (articolo: comprendere la difficoltà di addestrare reti neurali profonde ) è un modo efficace per inizializzare i pesi delle reti neurali. Per i livelli completamente collegati c'era una regola empirica in quei tutorial: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, …
Il teorema di approssimazione universale è un risultato abbastanza famoso per le reti neurali, in sostanza affermando che sotto alcuni presupposti, una funzione può essere approssimata uniformemente da una rete neurale con qualsiasi precisione. C'è qualche risultato analogo che si applica alle reti neurali convoluzionali?
La topologia del modello di Google Inception è disponibile qui: Google Inception Netowrk Ho notato che ci sono 3 livelli di softmax in questo modello (# 154, # 152, # 145) e 2 di loro sono una sorta di fuga anticipata di questo modello. Da quello che so, il layer …
È possibile avere pesi negativi (dopo epoche sufficienti) per reti neurali convoluzionali profonde quando si utilizza ReLU per tutti i livelli di attivazione?
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso 10 mesi fa . So che ci sono molte librerie per l'apprendimento automatico e l'apprendimento profondo come caffe, Theano, TensorFlow, keras, …
Ecco un esempio di codice keras che lo utilizza: from keras.constraints import max_norm model.add(Convolution2D(32, 3, 3, input_shape=(3, 32, 32), border_mode='same', activation='relu', kernel_constraint=max_norm(3)))
Entrambi i termini "ricampionamento" e "trasposizione della convoluzione" sono usati quando si sta facendo "deconvoluzione" (<- non un buon termine, ma permettetemi di usarlo qui). Inizialmente, pensavo che significassero la stessa cosa, ma mi sembra che siano diversi dopo aver letto questi articoli. qualcuno può chiarire per favore? Trasposizione della …
Stavo leggendo il documento Deep Residual Learning for Image Recognition e ho avuto difficoltà a comprendere con certezza al 100% ciò che un blocco residuo comporta computazionalmente. Leggendo il loro articolo hanno la figura 2: che illustra cosa dovrebbe essere un blocco residuo. Il calcolo di un blocco residuo è …
Leggendo Approfondendo le convoluzioni, mi sono imbattuto in un livello DepthConcat , un blocco costitutivo dei moduli di avvio proposti , che combina l'output di più tensori di dimensioni variabili. Gli autori chiamano questo "filtro concatenazione". Sembra che ci sia un'implementazione per Torch , ma non capisco davvero cosa faccia. …
Ho seguito le lezioni CS231N di Stanford e sto cercando di avvolgere la mia testa su alcuni problemi delle architetture della CNN. Quello che sto cercando di capire è se ci sono alcune linee guida generali per scegliere la dimensione del filtro di convoluzione e cose come i passi o …
Sto studiando e cercando di implementare reti neurali convoluzionali, ma suppongo che questa domanda si applichi ai percetroni multistrato in generale. I neuroni di output nella mia rete rappresentano l'attivazione di ogni classe: il neurone più attivo corrisponde alla classe prevista per un dato input. Per considerare un costo di …
Voglio usare il deep learning per addestrare un rilevamento binario viso / non viso, quale perdita dovrei usare, penso che sia SigmoidCrossEntropyLoss o Hinge-loss . Esatto, ma mi chiedo anche di usare softmax ma con solo due classi?
Da quanto ho capito, le CNN sono composte da due parti. La prima parte (livelli conv / pool) che esegue l'estrazione delle caratteristiche e la seconda parte (livelli fc) che esegue la classificazione delle caratteristiche. Dato che le reti neurali completamente connesse non sono i migliori classificatori (ovvero sono sovraperformate …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.