Domande taggate «deep-learning»

Per domande relative all'apprendimento profondo, che fa riferimento a un sottoinsieme di metodi di apprendimento automatico basati su reti neurali artificiali (ANN) con più strati nascosti. L'aggettivo profondo si riferisce quindi al numero di strati delle ANN. L'espressione deep learning è stata apparentemente introdotta (anche se non nel contesto dell'apprendimento automatico o delle ANN) nel 1986 da Rina Dechter nel documento "Imparare mentre si cercano problemi di soddisfazione dei vincoli".









2
Le reti residue profonde dovrebbero essere viste come un insieme di reti?
La domanda riguarda l'architettura di Deep Residual Networks ( ResNets ). Il modello che ha vinto il 1 ° posto al "Large Scale Visual Recognition Challenge 2015" (ILSVRC2015) in tutte e cinque le tracce principali: Classificazione ImageNet: reti a 152 strati “Ultra-deep” (quote Yann) Rilevamento ImageNet: 16% migliore del 2 …



2
Quale strato consuma più tempo nell'allenamento della CNN? Livelli di convoluzione vs livelli FC
In Convolutional Neural Network, quale strato consuma il massimo tempo in allenamento? Livelli di convoluzione o livelli completamente connessi? Possiamo prendere l'architettura AlexNet per capirlo. Voglio vedere l'interruzione del tempo del processo di allenamento. Voglio un confronto dei tempi relativi in ​​modo che possiamo prendere qualsiasi configurazione GPU costante.



1
La perdita salta bruscamente quando decadimento il tasso di apprendimento con l'ottimizzatore Adam in PyTorch
Sto addestrando una auto-encoderrete con l' Adamottimizzatore (con amsgrad=True) e MSE lossper l'attività di separazione della sorgente audio a canale singolo. Ogni volta che decadimento del tasso di apprendimento di un fattore, la perdita di rete salta bruscamente e quindi diminuisce fino al successivo decadimento del tasso di apprendimento. Sto …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.