Domande taggate «deep-learning»

una nuova area di ricerca sull'apprendimento automatico concernente le tecnologie utilizzate per l'apprendimento delle rappresentazioni gerarchiche dei dati, principalmente svolte con reti neurali profonde (cioè reti con due o più strati nascosti), ma anche con una sorta di modelli grafici probabilistici.




1
Keras LSTM con serie storiche 1D
Sto imparando a usare Keras e ho avuto un discreto successo con il mio set di dati con etichetta usando gli esempi di Deep Learning for Python di Chollet . Il set di dati è ~ 1000 serie storiche con lunghezza 3125 con 3 potenziali classi. Vorrei andare oltre i …



1
Trasformazione dei codificatori automatici
Ho appena letto il documento di Geoff Hinton sulla trasformazione dei codificatori automatici Hinton, Krizhevsky e Wang: Transforming Auto-encoder . In reti neurali artificiali e apprendimento automatico, 2011. e mi piacerebbe davvero giocare con qualcosa del genere. Ma dopo averlo letto non ho potuto ottenere abbastanza dettagli dall'articolo su come …


2
Ordina i numeri usando solo 2 livelli nascosti
Sto leggendo l'articolo chiave Sequence to Sequence Learning con Neural Networks di Ilya Sutskever e Quoc Le. Nella prima pagina, menziona brevemente che: A surprising example of the power of DNNs is their ability to sort N N-bit numbers using only 2 hidden layers of quadratic size Qualcuno può delineare …




1
COME: Inizializzazione del peso della rete neurale profonda
Dato il difficile compito di apprendimento (ad es. Alta dimensionalità, complessità intrinseca dei dati), le reti neurali profonde diventano difficili da addestrare. Per alleviare molti dei problemi si potrebbe: Normalizza && seleziona manualmente i dati di qualità scegliere un algoritmo di allenamento diverso (ad es. RMSprop invece di Discesa gradiente) …

1
Come posso calcolare il termine delta di uno strato convoluzionale, dati i termini delta e i pesi del precedente strato convoluzionale?
Sto cercando di formare una rete neurale artificiale con due strati convoluzionali (c1, c2) e due strati nascosti (c1, c2). Sto usando l'approccio standard di backpropagation. Nel passaggio indietro calcolo il termine di errore di un livello (delta) in base all'errore del livello precedente, ai pesi del livello precedente e …

2
La normalizzazione batch ha senso per una funzione di attivazione ReLU?
La normalizzazione in lotti è descritta in questo documento come una normalizzazione dell'input in una funzione di attivazione con variabili di scala e spostamentoγγ\gamma e ββ\beta. Questo documento descrive principalmente l'uso della funzione di attivazione sigmoid, che ha senso. Tuttavia, mi sembra che alimentare un input dalla distribuzione normalizzata prodotta …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.