Domande taggate «convolution»

La convoluzione è un'operazione a valori di funzione su due funzioni e : . Spesso utilizzato per ottenere la densità di una somma di variabili casuali indipendenti. Questo tag dovrebbe essere utilizzato anche per l'operazione inversa di deconvoluzione. NON utilizzare questo tag per reti neurali convoluzionali. fg-f(τ)g(t-τ)dτ


6
Importanza della normalizzazione della risposta locale nella CNN
Ho scoperto che Imagenet e altri grandi CNN fanno uso di livelli di normalizzazione della risposta locale. Tuttavia, non riesco a trovare così tante informazioni su di loro. Quanto sono importanti e quando dovrebbero essere usati? Da http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Lo strato di normalizzazione della risposta locale esegue una sorta di" …

4
Qual è l'invarianza della traduzione nella visione artificiale e nella rete neurale convoluzionale?
Non ho un background di visione artificiale, eppure quando leggo alcuni articoli e documenti relativi all'elaborazione delle immagini e alle reti neurali convoluzionali, devo costantemente affrontare il termine translation invariance, o translation invariant. O ho letto molto che l'operazione di convoluzione prevede translation invariance? !! Cosa significa questo? Io stesso …



1
I gradi di libertà possono essere un numero non intero?
Quando uso GAM, mi dà DF residuo è (ultima riga nel codice). Cosa significa? Andando oltre l'esempio GAM, in generale, il numero di gradi di libertà può essere un numero non intero?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"Stima della densità del kernel" è una convoluzione di cosa?
Sto cercando di comprendere meglio la stima della densità del kernel. Utilizzando la definizione da Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^( x ) = 1nΣni = 1Kh( x - xio)= 1n hΣni = 1K( x - xioh)fh^(X)=1nΣio=1nKh(X-Xio)=1nhΣio=1nK(X-Xioh) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Prendiamo come una funzione …

6
Strati convoluzionali: pad o non pad?
L'architettura AlexNet utilizza zero-padding come mostrato nella figura: Tuttavia, non vi è alcuna spiegazione nel documento sul perché questa imbottitura è stata introdotta. Il corso Standford CS 231n insegna che utilizziamo l'imbottitura per preservare le dimensioni spaziali: Mi chiedo è l'unica ragione per cui abbiamo bisogno di imbottitura? Voglio dire, …

2
Una visione dei sistemi dinamici del teorema del limite centrale?
(Originariamente pubblicato su MSE.) Ho visto molte discussioni euristiche sul teorema del limite centrale classico parlare della distribuzione normale (o di una qualsiasi delle distribuzioni stabili) come un "attrattore" nello spazio delle densità di probabilità. Ad esempio, considera queste frasi all'inizio del trattamento di Wikipedia : Nell'uso più generale, un …




3
In che modo esattamente le reti neurali convoluzionali usano la convoluzione al posto della moltiplicazione della matrice?
Stavo leggendo il Libro di Yoshua Bengio sull'apprendimento profondo e si dice a pagina 224: Le reti convoluzionali sono semplicemente reti neurali che usano la convoluzione al posto della moltiplicazione della matrice generale in almeno uno dei loro strati. tuttavia, non ero sicuro al 100% di come "sostituire la moltiplicazione …


2
Più filtri in un livello convoluzionale non imparerebbero lo stesso parametro durante l'allenamento?
Sulla base di quanto appreso, utilizziamo più filtri in un livello Conv di una CNN per apprendere diversi rilevatori di funzionalità. Ma poiché questi filtri vengono applicati in modo simile (cioè fatti scorrere e moltiplicati per le aree dell'input), non imparerebbero gli stessi parametri durante l'allenamento? Quindi l'uso di più …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.