Domande taggate «neural-network»

Le reti neurali artificiali (ANN) sono composte da "neuroni" - costrutti di programmazione che imitano le proprietà dei neuroni biologici. Una serie di connessioni ponderate tra i neuroni consente alle informazioni di propagarsi attraverso la rete per risolvere i problemi di intelligenza artificiale senza che il progettista della rete abbia avuto un modello di un sistema reale.

10
Cosa sono gli strati deconvoluzionali?
Di recente ho letto Reti pienamente convoluzionali per la segmentazione semantica di Jonathan Long, Evan Shelhamer, Trevor Darrell. Non capisco cosa fanno gli "strati deconvoluzionali" / come funzionano. La parte rilevante è 3.3. Upsampling è una convoluzione guidata all'indietro Un altro modo per collegare output grossolani a pixel densi è …



6
Quando utilizzare GRU su LSTM?
La differenza chiave tra un GRU e un LSTM è che un GRU ha due gate ( reset e update gate) mentre un LSTM ha tre gate (vale a dire input , output e dimenticare gate). Perché utilizziamo il GRU quando abbiamo chiaramente un maggiore controllo sulla rete attraverso il …




3
Backprop attraverso i livelli di pooling massimo?
Questa è una piccola domanda concettuale che mi assilla da un po 'di tempo: come possiamo propagare indietro attraverso uno strato di max pooling in una rete neurale? Mi sono imbattuto nei livelli di max pooling durante questa esercitazione per la libreria nn di Torch 7. La libreria estrae il …


3
RNN vs CNN ad alto livello
Ho pensato alle reti neuronali ricorrenti (RNN) e alle loro varietà e alle reti neurali convoluzionali (CNN) e alle loro varietà. Sarebbe giusto dire questi due punti: Utilizzare le CNN per suddividere un componente (come un'immagine) in sottocomponenti (come un oggetto in un'immagine, come il contorno dell'oggetto nell'immagine, ecc.) Utilizzare …

2
Quando utilizzare (He o Glorot) inizializzazione normale su init uniforme? E quali sono i suoi effetti con la normalizzazione batch?
Sapevo che Residual Network (ResNet) rendeva popolare la normale inizializzazione. In ResNet viene utilizzata l'inizializzazione normale He , mentre il primo livello utilizza l'inizializzazione uniforme He. Ho esaminato il documento ResNet e il documento "Delving Deep into Rectifiers" (He, documento di inizializzazione), ma non ho trovato alcuna menzione sul normale …




1
Qual è la differenza tra LeakyReLU e PReLU?
f( x ) = max ( x , α x ) con α ∈ ( 0 , 1 )f(X)=max(X,αX) con α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, tuttavia, ha entrambe le funzioni nei documenti . Perdita ReLU Fonte di LeakyReLU : return K.relu(inputs, …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.