Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.
Sto imparando il deep learning (in particolare le CNN) e come in genere richiede moltissimi dati per prevenire un eccesso di adattamento. Tuttavia, mi è stato anche detto che maggiore è la capacità / più parametri ha un modello, più dati sono necessari per evitare un eccesso di adattamento. Pertanto, …
Supponiamo di voler formare una rete neurale profonda per eseguire la classificazione o la regressione, ma voglio sapere quanto sarà sicura la previsione. Come ho potuto raggiungere questo obiettivo? La mia idea è di calcolare l'entropia crociata per ogni dato di allenamento, in base alle sue prestazioni di previsione nei …
Il problema è: Deriva il gradiente rispetto allo strato di input per una singola rete neurale a strato nascosto usando sigmoid per input -> nascosto, softmax per nascosto -> output, con una perdita di entropia incrociata. Posso superare gran parte della derivazione usando la regola della catena, ma non sono …
Secondo "Efficient Backprop" di LeCun et al (1998) è buona norma normalizzare tutti gli input in modo che siano centrati attorno a 0 e rientrino nell'intervallo della seconda derivata massima. Quindi, per esempio, useremmo [-0.5,0.5] per la funzione "Tanh". Questo per aiutare il progresso della retro-propagazione man mano che l'Assia …
Le reti di autoencoder sembrano essere molto più complicate delle normali reti MLP classificatore. Dopo diversi tentativi di utilizzo di Lasagne, tutto ciò che ottengo nell'output ricostruito è qualcosa che assomiglia al meglio a una media sfocata di tutte le immagini del database MNIST senza distinzioni su cosa sia effettivamente …
In CNN, impareremo i filtri per produrre una mappa delle caratteristiche nel livello convoluzionale. In Autoencoder, ciascuna singola unità nascosta di livello può essere considerata come filtro. Qual è la differenza tra i filtri appresi in queste due reti?
Ho input estremamente sparsi, ad esempio posizioni di determinate funzionalità in un'immagine di input. Inoltre, ogni funzione può avere più rilevamenti (non sono sicuro che ciò abbia un impatto sul design del sistema). Questo lo presenterò come 'immagine binaria' del canale k con pixel ON che rappresentano la presenza di …
Sto iniziando il mio percorso di dottorato di ricerca e l'obiettivo finale che mi ero prefissato è sviluppare ANNs che monitorassero l'ambiente in cui lavorano e adeguassero dinamicamente la loro architettura al problema attuale. L'ovvia implicazione è la temporalità dei dati: se il set di dati non è continuo e …
Sto addestrando una rete neurale artificiale (backpropagation, feed-forward) con dati distribuiti non normali. Oltre all'errore quadratico medio della radice, la letteratura suggerisce spesso il coefficiente di correlazione di Pearson per valutare la qualità della rete addestrata. Ma il coefficiente di correlazione di Pearson è ragionevole se i dati di allenamento …
Un autoencoder variazionale (VAE) fornisce un modo per apprendere la distribuzione di probabilità correlando un input alla sua rappresentazione latente . In particolare, l'encoder associa un input a una distribuzione su . Un tipico codificatore emetterà parametri , che rappresentano la distribuzione gaussiana ; questa distribuzione viene utilizzata come nostra …
Voglio eseguire un'analisi del sentimento sul testo, ho esaminato diversi articoli, alcuni usano "Naive Bayes" e altri sono "Recurrent Neural Network (LSTM)" , d'altro canto ho visto una libreria Python per l'analisi del sentiment che è nltk. Utilizza "Naive Bayes" qualcuno può spiegare qual è la differenza tra l'utilizzo dei …
Questa domanda fa seguito a stats.stackexchange.com/q/233658 Il modello di regressione logistica per le classi {0, 1} è P(y=1|x)=exp(wTx)1+exp(wTx)P(y=0|x)=11+exp(wTx)P(y=1|x)=exp(wTx)1+exp(wTx)P(y=0|x)=11+exp(wTx) \mathbb{P} (y = 1 \;|\; x) = \frac{\exp(w^T x)}{1 + \exp(w^T x)} \\ \mathbb{P} (y = 0 \;|\; x) = \frac{1}{1 + \exp(w^T x)} Chiaramente queste probabilità si sommano a 1. Impostando …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.