Domande taggate «tensorflow»

Una libreria Python per l'apprendimento profondo sviluppata da Google. Utilizzare questo tag per qualsiasi domanda sull'argomento che (a) coinvolge tensorflow come parte critica della domanda o risposta prevista, e (b) non riguarda solo l'uso di tensorflow.

2
È pratica comune ridurre al minimo la perdita media sui lotti anziché sulla somma?
Tensorflow ha un tutorial di esempio sulla classificazione di CIFAR-10 . Nell'esercitazione viene minimizzata la perdita media di entropia trasversale nel lotto. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). …




4
Come ottimizzare (in modo sistematico) il tasso di apprendimento con la Discesa del gradiente come ottimizzatore?
Un estraneo al campo ML / DL; ha iniziato il corso Udacity Deep Learning basato su Tensorflow; fare l'incarico 3 problema 4; cercando di ottimizzare la frequenza di apprendimento con la seguente configurazione: Dimensione del lotto 128 Numero di passaggi: sufficiente per riempire 2 epoche Dimensioni degli strati nascosti: 1024, …



2
In che modo Tensorflow `tf.train.Optimizer` calcola i gradienti?
Sto seguendo il tutorial mnist di Tensorflow ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py ). Il tutorial usa tf.train.Optimizer.minimize(specificamente tf.train.GradientDescentOptimizer). Non vedo argomenti passati da nessuna parte per definire i gradienti. Il flusso del tensore utilizza la differenziazione numerica per impostazione predefinita? C'è un modo per passare in pendenze come puoi con scipy.optimize.minimize?

1
Le reti neurali di solito impiegano un po 'di tempo a "calciare" durante l'allenamento?
Sto cercando di formare una rete neurale profonda per la classificazione, usando la propagazione posteriore. In particolare, sto usando una rete neurale convoluzionale per la classificazione delle immagini, usando la libreria Tensor Flow. Durante l'allenamento, sto sperimentando uno strano comportamento e mi chiedo solo se questo è tipico o se …

1
Perché le caratteristiche casuali di Fourier non sono negative?
Le funzionalità casuali di Fourier forniscono approssimazioni alle funzioni del kernel. Sono usati per vari metodi del kernel, come SVM e processi gaussiani. Oggi ho provato a utilizzare l' implementazione di TensorFlow e ho ottenuto valori negativi per metà delle mie funzionalità. A quanto ho capito, questo non dovrebbe succedere. …


1
Quale modello di apprendimento profondo può classificare categorie che non si escludono a vicenda
Esempi: ho una frase nella descrizione del lavoro: "Ingegnere senior Java nel Regno Unito". Voglio usare un modello di apprendimento profondo per prevederlo in 2 categorie: English e IT jobs. Se uso il modello di classificazione tradizionale, posso solo prevedere 1 etichetta con la softmaxfunzione all'ultimo livello. Quindi, posso usare …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.