Domande taggate «neural-networks»

Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.


1
La perdita di allenamento scende e sale di nuovo. Che cosa sta succedendo?
La mia perdita di allenamento diminuisce e poi aumenta di nuovo. È molto strano. La perdita di convalida incrociata tiene traccia della perdita di addestramento. Cosa sta succedendo? Ho due LSTMS in pila come segue (su Keras): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), len(nd.char_indices)))) model.add(Dropout(0.2)) model.add(LSTM(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(nd.categories))) model.add(Activation('sigmoid')) …


8
Perché è così importante avere teorie di principio e matematiche per l'apprendimento automatico?
Mi chiedevo, perché è così importante avere l'apprendimento automatico di principio / teorico? Da una prospettiva personale come essere umano, posso capire perché l'apprendimento automatico basato sui principi sarebbe importante: agli umani piace capire cosa stanno facendo, troviamo bellezza e soddisfazione per la comprensione. dal punto di vista della teoria, …



6
Per problemi convessi, il gradiente in Discesa gradiente stocastica (SGD) indica sempre il valore estremo globale?
Data una funzione di costo convesso, usando SGD per l'ottimizzazione, avremo un gradiente (vettore) ad un certo punto durante il processo di ottimizzazione. La mia domanda è, dato il punto sul convesso, il gradiente punta solo nella direzione in cui la funzione aumenta / diminuisce più velocemente, oppure il gradiente …




3
Qual è la ragione per cui Adam Optimizer è considerato robusto per il valore dei suoi iper parametri?
Stavo leggendo dell'ottimizzatore Adam per Deep Learning e mi sono imbattuto nella frase seguente nel nuovo libro Deep Learning di Bengio, Goodfellow e Courville: Adam è generalmente considerato abbastanza robusto per la scelta dei parametri iper, sebbene il tasso di apprendimento a volte debba essere modificato rispetto al valore predefinito …

4
Cosa possiamo imparare sul cervello umano dalle reti neurali artificiali?
So che la mia domanda / titolo non è molto specifica, quindi cercherò di chiarirla: Le reti neurali artificiali hanno progetti relativamente rigidi. Naturalmente, generalmente, sono influenzati dalla biologia e cercano di costruire un modello matematico di reti neurali reali, ma la nostra comprensione delle reti neurali reali non è …

2
I codificatori automatici non possono apprendere funzioni significative
Ho 50.000 immagini come queste due: Rappresentano grafici di dati. Volevo estrarre funzionalità da queste immagini, quindi ho usato il codice di autoencoder fornito da Theano (deeplearning.net). Il problema è che questi codificatori automatici non sembrano apprendere alcuna funzionalità. Ho provato RBM ed è lo stesso. Il set di dati …

2
In che modo la CNN "12" di Krizhevsky ottiene 253.440 neuroni nel primo strato?
In Alex Krizhevsky, et al. La classificazione di Imagenet con reti neurali profonde convoluzionali enumera il numero di neuroni in ogni strato (vedi diagramma sotto). L'input della rete è di 150.528 dimensioni e il numero di neuroni negli strati rimanenti della rete è dato da 253.440–186.624–64.896–64.896–43.264– 4096–4096–1000. Una vista 3D …

2
Qual è la differenza tra dropout e drop connect?
Qual è la differenza tra dropout e drop connect? AFAIK, il dropout rilascia casualmente nodi nascosti durante l'allenamento ma li mantiene in fase di test e drop connect rilascia connessioni. Ma eliminare le connessioni equivale a eliminare i nodi nascosti? I nodi (o le connessioni) non sono solo un insieme …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.