Domande taggate «conv-neural-network»

Le reti neurali convoluzionali sono un tipo di rete neurale in cui esistono solo sottoinsiemi di possibili connessioni tra strati per creare regioni sovrapposte. Sono comunemente usati per compiti visivi.



2
Inizializzazione del peso xavier della CNN
In alcuni tutorial ho scoperto che l'inizializzazione del peso "Xavier" (articolo: comprendere la difficoltà di addestrare reti neurali profonde ) è un modo efficace per inizializzare i pesi delle reti neurali. Per i livelli completamente collegati c'era una regola empirica in quei tutorial: Var(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W)=2nin+nout,simpler alternative:Var(W)=1ninVar(W) = \frac{2}{n_{in} + n_{out}}, …




5
Esiste uno strumento visivo per la progettazione e l'applicazione di reti neurali / apprendimento profondo? [chiuso]
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso 10 mesi fa . So che ci sono molte librerie per l'apprendimento automatico e l'apprendimento profondo come caffe, Theano, TensorFlow, keras, …


4
Nella CNN, l'upsampling e la trasposizione della convoluzione sono uguali?
Entrambi i termini "ricampionamento" e "trasposizione della convoluzione" sono usati quando si sta facendo "deconvoluzione" (<- non un buon termine, ma permettetemi di usarlo qui). Inizialmente, pensavo che significassero la stessa cosa, ma mi sembra che siano diversi dopo aver letto questi articoli. qualcuno può chiarire per favore? Trasposizione della …

1
Che cos'è esattamente un blocco di apprendimento residuo nel contesto delle reti di residui profondi in apprendimento profondo?
Stavo leggendo il documento Deep Residual Learning for Image Recognition e ho avuto difficoltà a comprendere con certezza al 100% ciò che un blocco residuo comporta computazionalmente. Leggendo il loro articolo hanno la figura 2: che illustra cosa dovrebbe essere un blocco residuo. Il calcolo di un blocco residuo è …



3
Non linearità prima dello strato finale di Softmax in una rete neurale convoluzionale
Sto studiando e cercando di implementare reti neurali convoluzionali, ma suppongo che questa domanda si applichi ai percetroni multistrato in generale. I neuroni di output nella mia rete rappresentano l'attivazione di ogni classe: il neurone più attivo corrisponde alla classe prevista per un dato input. Per considerare un costo di …



Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.