Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.
La codifica sparsa è definita come l'apprendimento di un insieme troppo completo di vettori di base per rappresentare i vettori di input (<- perché lo vogliamo). Quali sono le differenze tra codifica sparsa e autoencoder? Quando utilizzeremo la codifica sparsa e il codificatore automatico?
Ho letto alcuni articoli che parlano dei pro e dei contro di ciascun metodo, alcuni sostengono che GA non dia alcun miglioramento nel trovare la soluzione ottimale, mentre altri dimostrano che è più efficace. Sembra che GA sia generalmente preferito in letteratura (anche se la maggior parte delle persone lo …
Sembrano tutti rappresentare variabili casuali dai nodi e (in) dipendenza attraverso i bordi (possibilmente diretti). Sono particolarmente interessato al punto di vista di un bayesiano.
Qualcuno ha visto letteratura sulla pre-formazione in una rete neurale convoluzionale profonda? Ho visto solo pre-training senza supervisione in autoencoder o macchine boltzman limitate.
Sono nuovo a modellare con le reti neurali, ma sono riuscito a stabilire una rete neurale con tutti i punti di dati disponibili che si adattano bene ai dati osservati. La rete neurale è stata realizzata in R con il pacchetto nnet: require(nnet) ##33.8 is the highest value mynnet.fit <- …
Ho un set di dati in streaming, gli esempi sono disponibili uno alla volta. Avrei bisogno di fare una classificazione multi classe su di essi. Non appena ho fornito un esempio di formazione al processo di apprendimento, devo scartare l'esempio. Allo stesso tempo, sto anche usando l'ultimo modello per eseguire …
Nel corso Neural Networks e Deep Learning di Andrew Ng su Coursera afferma che usare è quasi sempre preferibile usare .tanhtanhtanhsigmoidsigmoidsigmoid La ragione per cui egli dà è che le uscite utilizzando centro attorno 0 piuttosto che 's 0,5, e questo 'rende l'apprendimento per lo strato successivo un po 'più …
Ho letto su https://en.wikipedia.org/wiki/Generative_adversarial_networks : [Reti contraddittorie generative] sono state introdotte da Ian Goodfellow et al nel 2014. ma Jurgen Schmidhuber afferma di aver svolto un lavoro simile in precedenza in quella direzione (ad esempio, si è tenuto un dibattito al NIPS 2016 durante il tutorial sulle reti contraddittorie generative: …
Sono completamente nuovo alle reti neurali ma sono molto interessato a capirle. Tuttavia, non è affatto facile iniziare. Qualcuno potrebbe raccomandare un buon libro o qualsiasi altro tipo di risorsa? C'è un must da leggere? Sono grato per qualsiasi tipo di suggerimento.
I computer sono stati a lungo in grado di giocare a scacchi usando una tecnica a "forza bruta", cercando una certa profondità e quindi valutando la posizione. Il computer AlphaGo tuttavia utilizza solo una ANN per valutare le posizioni (non fa alcuna ricerca approfondita per quanto ne so). È possibile …
Sfondo introduttivo All'interno di una rete neurale convoluzionale, di solito abbiamo una struttura / flusso generale che assomiglia a questo: immagine di input (cioè un vettore 2D x) (Il 1 ° livello convoluzionale (Conv1) inizia qui ...) contorta una serie di filtri ( w1) lungo l'immagine 2D (ovvero z1 = …
Ho lavorato su un problema di regressione in cui l'input è un'immagine e l'etichetta ha un valore continuo tra 80 e 350. Le immagini sono di alcuni prodotti chimici dopo una reazione. Il colore che risulta indica la concentrazione di un'altra sostanza chimica rimasta, ed è quello che il modello …
Ho studiato LSTM per un po '. Capisco ad alto livello come funziona tutto. Tuttavia, andando a implementarli usando Tensorflow, ho notato che BasicLSTMCell richiede un numero di unità (es. num_units) Parametro. Da questa spiegazione molto approfondita degli LSTM, ho scoperto che una singola unità LSTM è una delle seguenti …
Perché utilizziamo unità lineari rettificate (ReLU) con reti neurali? In che modo migliora la rete neurale? Perché diciamo che ReLU è una funzione di attivazione? Softmax non è la funzione di attivazione per le reti neurali? Immagino che usiamo sia ReLU che softmax, in questo modo: neurone 1 con uscita …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.