Nozioni di base sull'apprendimento profondo


22

Sto cercando un documento che descriva in dettaglio le basi del deep learning. Idealmente come il corso Andrew Ng per l'apprendimento profondo. Sai dove posso trovarlo?


5
-1: dove hai già guardato? Hai trovato qualcosa?
Spacedman,

4
Perché è stato votato. Non mostra alcuno sforzo ed è un duplicato di un duplicato
runDOSrun

Il collegamento al duplicato è una pagina di errore 404.
Danijel

Risposte:


40

Questo link contiene un'incredibile quantità di letteratura sull'apprendimento profondo. Riassumendolo qui (andando nell'ordine ideale per un principiante) - NOTA: tutte queste risorse usano principalmente Python.

1) Innanzitutto è richiesta una conoscenza di base dell'apprendimento automatico. Ho trovato l'apprendimento di Caltech dai dati come ideale di tutti i corsi di apprendimento automatico disponibili in rete.

Anche il corso Coursera di Andrew Ng è abbastanza buono.

2) Per le reti neurali, nessuno lo spiega meglio del Dr. Patrick Winston . I compiti dovrebbero essere provati per una migliore comprensione. Sono in pitone.

3) Per una migliore comprensione delle reti neurali, Michael Nielsen dovrebbe essere tenuto (come suggerito da Alexey). È piuttosto semplice ma funziona.

4) Per le reti neurali profonde e implementandole più rapidamente sulle GPU, sono disponibili più framework, come Theano , Caffe , Pybrain , Torch , ecc. Di questi, Theano offre una migliore funzionalità di basso livello che consente all'utente di creare NN personalizzate. È una libreria Python, quindi essere in grado di usare numpy, scikit-learn, matplotlib, scipy insieme ad esso è un grande vantaggio. Il tutorial di apprendimento profondo scritto da Lisa Lab dovrebbe essere provato per una migliore comprensione del theano.

5) Per le reti neurali convoluzionali, segui il tutorial di andrej karpathy .

6) Per l'apprendimento senza supervisione, seguire qui e qui .

7) Per un incrocio di apprendimento profondo e PNL, segui la lezione di Richard Socher .

8) Per gli LSTM, leggi Hochreiter, S. e Schmidhuber, J. (1997). Memoria a breve termine. Calcolo neurale, 9 (8), 1735-1780 e Graves, Alex. Etichettatura di sequenze supervisionate con reti neurali ricorrenti. Vol. 385. Springer, 2012 .

Ecco il codice Theano di LSTM .



13

Reti neurali e apprendimento profondo di Michael Nielsen. Il libro è ancora in corso, ma sembra abbastanza interessante e promettente. Ed è gratis! Ecco il link: http://neuralnetworksanddeeplearning.com/

Finora ci sono solo 5 capitoli e la maggior parte parla delle solite reti neurali, ma vale comunque la pena dare un'occhiata.

Aggiornamento: il libro è stato completato!


10

Riferimenti principali:

Corsi di apprendimento profondo:

NLP-oriented:

Vision-oriented:

Tutorial specifici del toolkit:



2

Per comprendere la derivazione dell'algoritmo di propagazione Back, suggerisco il video di YouTube di Ryan Harris che è meno scoraggiante. Potresti trovare anche il secondo video.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.