Domande taggate «neural-networks»

Le reti neurali artificiali (ANN) sono un'ampia classe di modelli computazionali vagamente basati su reti neurali biologiche. Comprendono NN feedforward (inclusi NN "profondi"), NN convoluzionali, NN ricorrenti, ecc.



3
tanh vs. sigmoid nella rete neurale
Mi scuso in anticipo per il fatto che sto ancora arrivando al passo con questo. Sto cercando di capire i pro e i contro dell'utilizzo di tanh (mappa da -1 a 1) vs. sigmoid (mappa da 0 a 1) per la mia funzione di attivazione del neurone. Dalla mia lettura …

1
numero di mappe caratteristiche in reti neurali convoluzionali
Quando apprendo la rete neurale convoluzionale, ho domande riguardanti la figura seguente. 1) C1 nel layer 1 ha 6 mappe caratteristiche, significa che ci sono sei kernel convoluzionali? Ogni kernel convoluzionale viene utilizzato per generare una mappa delle caratteristiche basata sull'input. 2) S1 nel livello 2 ha 6 mappe caratteristiche, …


2
Quali sono le alternative alla dimensione VC per misurare la complessità delle reti neurali?
Mi sono imbattuto in alcuni modi di base per misurare la complessità delle reti neurali: Ingenuo e informale: conta il numero di neuroni, neuroni nascosti, strati o strati nascosti Dimensione VC (Eduardo D. Sontag [1998] "Dimensione VC delle reti neurali" [ pdf ].) Una complessità computazionaleTC0dTCd0TC^0_d granulare e asintotica misura …


3
Percezione multistrato vs rete neurale profonda
Questa è una questione di terminologia. A volte vedo che le persone si riferiscono a reti neurali profonde come "percetroni multistrato", perché? Un percettrone, mi hanno insegnato, è un classificatore a singolo strato (o regressore) con un'uscita di soglia binaria che utilizza un modo specifico di allenamento dei pesi (non …

5
Spiegazione della funzione di perdita Yolo
Sto cercando di capire la funzione di perdita di Yolo v2: λcoord∑i=0S2∑j=0B1objij[(xi−x^i)2+(yi−y^i)2]+λcoord∑i=0S2∑j=0B1objij[(wi−−√−w^i−−√)2+(hi−−√−h^i−−√)2]+∑i=0S2∑j=0B1objij(Ci−C^i)2+λnoobj∑i=0S2∑j=0B1noobjij(Ci−C^i)2+∑i=0S21obji∑c∈classes(pi(c)−p^i(c))2λcoord∑i=0S2∑j=0B1ijobj[(xi−x^i)2+(yi−y^i)2]+λcoord∑i=0S2∑j=0B1ijobj[(wi−w^i)2+(hi−h^i)2]+∑i=0S2∑j=0B1ijobj(Ci−C^i)2+λnoobj∑i=0S2∑j=0B1ijnoobj(Ci−C^i)2+∑i=0S21iobj∑c∈classes(pi(c)−p^i(c))2\begin{align} &\lambda_{coord} \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}[(x_i-\hat{x}_i)^2 + (y_i-\hat{y}_i)^2 ] \\&+ \lambda_{coord} \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}[(\sqrt{w_i}-\sqrt{\hat{w}_i})^2 +(\sqrt{h_i}-\sqrt{\hat{h}_i})^2 ]\\ &+ \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}(C_i - \hat{C}_i)^2 + \lambda_{noobj}\sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{noobj}(C_i - \hat{C}_i)^2 \\ &+ \sum_{i=0}^{S^2} \mathbb{1}_{i}^{obj}\sum_{c \in classes}(p_i(c) - \hat{p}_i(c))^2 \\ \end{align} Se qualcuno può dettagliare la funzione.


3
Posso usare un piccolo set di convalida?
Comprendo il ragionamento alla base della suddivisione dei dati in un set di test e un set di convalida. Comprendo anche che la dimensione della divisione dipenderà dalla situazione, ma generalmente varierà dal 50/50 al 90/10. Ho creato un RNN per correggere l'ortografia e iniziare con un set di dati …

2
Buona precisione nonostante l'alto valore di perdita
Durante l'addestramento di un semplice classificatore binario di una rete neurale ottengo un alto valore di perdita, usando l'entropia incrociata. Nonostante ciò, il valore dell'accuratezza sul set di validazione è abbastanza buono. Ha qualche significato? Non esiste una stretta correlazione tra perdita e precisione? Ho sulla formazione e la convalida …

4
L'accuratezza della macchina con incremento gradiente diminuisce all'aumentare del numero di iterazioni
Sto sperimentando l'algoritmo della macchina per aumentare il gradiente tramite il caretpacchetto in R. Utilizzando un piccolo set di dati di ammissione al college, ho eseguito il seguente codice: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 


4
Text Mining: come raggruppare i testi (ad es. Articoli di notizie) con l'intelligenza artificiale?
Ho creato alcune reti neurali (MLP (completamente connesse), Elman (ricorrenti)) per diversi compiti, come giocare a Pong, classificare cifre scritte a mano e cose ... Inoltre ho cercato di costruire alcune prime reti neurali convoluzionali, ad esempio per classificare note scritte a mano a più cifre, ma sono completamente nuovo …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.