Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.
Sembra che sia possibile ottenere risultati simili a una rete neurale con una regressione lineare multivariata in alcuni casi e la regressione lineare multivariata è super veloce e facile. In quali circostanze le reti neurali possono dare risultati migliori della regressione lineare multivariata?
Nella maggior parte del codice Tensorflow ho visto Adam Optimizer utilizzato con un tasso di apprendimento costante di 1e-4(cioè 0,0001). Il codice di solito ha il seguente aspetto: ...build the model... # Add the optimizer train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) # Add the ops to initialize variables. These will include # the …
Capisco come un artificial neural network (ANN), può essere addestrato in modo supervisionato usando backpropogation per migliorare l'adattamento diminuendo l'errore nelle previsioni. Ho sentito che un ANN può essere utilizzato per l'apprendimento senza supervisione, ma come può essere fatto senza una funzione di costo di qualche tipo per guidare le …
Molti autori di articoli che leggo affermano che le SVM sono tecniche superiori per affrontare il loro problema di regressione / classificazione, consapevoli di non poter ottenere risultati simili attraverso le NN. Spesso il confronto afferma che SVM, anziché NN, Avere una forte teoria fondante Raggiungi l'ottimale globale grazie alla …
Comprendo che la discesa gradiente stocastica può essere utilizzata per ottimizzare una rete neurale mediante backpropagation aggiornando ogni iterazione con un diverso campione del set di dati di training. Quanto dovrebbe essere grande la dimensione del lotto?
Poiché stiamo usando la funzione logistica per trasformare una combinazione lineare dell'input in un output non lineare, come può la regressione logistica essere considerata un classificatore lineare? La regressione lineare è proprio come una rete neurale senza lo strato nascosto, quindi perché le reti neurali sono considerate classificatori non lineari …
Esistono reti neurali ricorrenti e reti neurali ricorsive. Entrambi sono generalmente indicati con lo stesso acronimo: RNN. Secondo Wikipedia , le NN ricorrenti sono in realtà NN ricorsive, ma non capisco davvero la spiegazione. Inoltre, non riesco a trovare quale sia meglio (con esempi o giù di lì) per l'elaborazione …
La Discesa a Gradiente ha il problema di rimanere bloccati nei Minimi Locali. Dobbiamo eseguire tempi esponenziali di discesa gradiente per trovare minimi globali. Qualcuno può parlarmi di qualsiasi alternativa alla discesa gradiente applicata nell'apprendimento della rete neurale, insieme ai suoi pro e contro.
Negli ultimi anni, le reti neurali convoluzionali (CNN) sono diventate lo stato dell'arte per il riconoscimento degli oggetti nella visione artificiale. In genere, una CNN è composta da diversi livelli convoluzionali, seguiti da due livelli completamente collegati. Un'intuizione alla base di ciò è che i livelli convoluzionali apprendono una migliore …
In un recente post sul blog di Rong Ge, si diceva che: Si ritiene che per molti problemi tra cui l'apprendimento di reti profonde, quasi tutti i minimi locali abbiano un valore di funzione molto simile all'ottimale globale, e quindi trovare un minimo locale è abbastanza buono. Da dove viene …
Ho scritto un semplice MLP in TensorFlow che sta modellando un XOR-Gate . Quindi per: input_data = [[0., 0.], [0., 1.], [1., 0.], [1., 1.]] dovrebbe produrre quanto segue: output_data = [[0.], [1.], [1.], [0.]] La rete ha uno strato di input, uno nascosto e uno di output con 2, …
Ho familiarità con gli algoritmi di base per la discesa del gradiente per l'addestramento delle reti neurali. Ho letto l'articolo che propone Adam: ADAM: UN METODO PER L'OTTIMIZZAZIONE STOCASTICA . Anche se ho sicuramente avuto alcune intuizioni (almeno), il documento sembra essere di livello troppo alto per me nel complesso. …
Sto cercando di comprendere la parte di convoluzione delle reti neurali convoluzionali. Guardando la figura seguente: Non ho problemi a comprendere il primo livello di convoluzione in cui abbiamo 4 kernel diversi (di dimensioni ), che contiamo con l'immagine di input per ottenere 4 mappe caratteristiche.k×kk×kk \times k Quello che …
Mentre la scelta delle funzioni di attivazione per il livello nascosto è abbastanza chiara (principalmente sigma o tanh), mi chiedo come decidere la funzione di attivazione per il livello di output. Le scelte comuni sono funzioni lineari, funzioni sigmoidi e funzioni softmax. Tuttavia, quando dovrei usare quale?
Voglio imparare le reti neurali. Sono un linguista computazionale. Conosco approcci statistici di machine learning e posso programmare in Python. Sto cercando di iniziare con i suoi concetti e conoscere uno o due modelli popolari che possono essere utili dal punto di vista della linguistica computazionale. Ho navigato sul web …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.