Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.
Stavo leggendo il documento di normalizzazione in lotti [1] e aveva una sezione in cui è riportato un esempio, cercando di mostrare perché la normalizzazione deve essere eseguita con attenzione. Sinceramente, non riesco a capire come funziona l'esempio e sono sinceramente molto curioso di capire il loro lavoro il più …
Recentemente, abbiamo visto emergere la rete neurale residua, in cui ogni strato è costituito da un modulo computazionale e da una connessione di scelta rapida che preserva l'input allo strato come l'output del suo strato mostra: y i + 1 = c i + y i La rete consente di …
Sto usando il feed-forward NN. Capisco il concetto, ma la mia domanda riguarda i pesi. Come puoi interpretarli, cioè cosa rappresentano o come possono essere distrutti (assediati solo dai coefficienti di funzione)? Ho trovato qualcosa chiamato "spazio di pesi", ma non sono sicuro di cosa significhi.
Sto cercando di utilizzare una rete neurale per approssimare il valore Q in Q-learning come in Domande sull'apprendimento Q utilizzando reti neurali . Come suggerito nella prima risposta, sto usando una funzione di attivazione lineare per il livello di output, mentre sto ancora usando la funzione di attivazione sigmoid nei …
Sto riscontrando problemi nel comprendere il modello skip-gram dell'algoritmo Word2Vec. Nel bag-of-word continuo è facile vedere come le parole di contesto possano "adattarsi" alla rete neurale, dal momento che in pratica le si calcola in media dopo aver moltiplicato ciascuna delle rappresentazioni di codifica a caldo singolo con la matrice …
Supponiamo che io voglia imparare un classificatore che accetta un vettore di numeri come input e fornisce un'etichetta di classe come output. I miei dati di allenamento consistono in un gran numero di coppie input-output. Tuttavia, quando vengo a provare alcuni nuovi dati, questi dati sono in genere solo parzialmente …
Sto cercando di usare il neuralnetpacchetto di R (documentazione qui ) per la previsione. Ecco cosa sto cercando di fare: library(neuralnet) x <- cbind(runif(50, min=1, max=500), runif(50, min=1, max=500)) y <- x[, 1] * x[, 2] train <- data.frame(x, y) n <- names(train) f <- as.formula(paste('y ~', paste(n[!n %in% 'y'], …
Non sono sicuro che questo sia appropriato per questo sito, ma sto iniziando il mio MSE in informatica (BS in matematica applicata) e voglio avere una solida base nell'apprendimento automatico (molto probabilmente perseguirò un dottorato di ricerca). Uno dei miei interessi secondari sono le reti neurali. Qual è un buon …
Sto lottando per stabilire la connessione matematica tra una rete neurale e un modello grafico. Nei modelli grafici l'idea è semplice: la distribuzione di probabilità fattorizza secondo le cricche nel grafico, con i potenziali che normalmente sono della famiglia esponenziale. Esiste un ragionamento equivalente per una rete neurale? Si può …
Mi chiedevo se in alcune circostanze è possibile che le ANN funzionino meglio se si eliminano alcune connessioni come ad esempio: Costruire una ANN prendendo in parallelo due ANN e A a più strati (stessi nodi di input e output) aggiungendo alcune connessioni di "comunicazione" tra gli strati nascosti di …
Sto iniziando con il deep learning e ho una domanda la cui risposta non riuscivo a trovare, forse non ho cercato correttamente. Ho visto questa risposta , ma non è ancora chiaro quale sia la perdita di perdita di peso e come sia correlata alla funzione di perdita.
L'idea alla base di Recurrent Neural Network (RNN) mi è chiara. Lo capisco nel modo seguente: abbiamo una sequenza di osservazioni ( ) (o, in altre parole, serie temporali multivariate). Ogni singola osservazioneo⃗ 1,o⃗ 2,…,o⃗ no→1,o→2,…,o→n\vec o_1, \vec o_2, \dots, \vec o_no⃗ io→i\vec o_i è un NNN -dimensionale vettore numerico. …
Mi chiedevo se fosse possibile addestrare un SVM (diciamo uno lineare, per semplificare le cose) usando la backpropagation? Attualmente, sono a un blocco stradale, perché posso solo pensare di scrivere l' output del classificatore come f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b))f(x;θ,b)=sgn(θ⋅x−(b+1))=sgn(g(x;θ,b)) f(\mathbf{x};\theta,b) = \text{sgn}(\theta\cdot\mathbf{x} - (b+1)) = \text{sgn}(g(\mathbf{x};\theta,b)) Pertanto, quando proviamo a calcolare il "passaggio …
Comprendo che le reti neurali (NN) possono essere considerate approssimatori universali di entrambe le funzioni e i loro derivati, sotto determinate ipotesi (sia sulla rete che sulla funzione da approssimare). In effetti, ho fatto una serie di test su funzioni semplici, ma non banali (ad es. Polinomi), e sembra che …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.