Domande taggate «optimization»

Usa questo tag per qualsiasi utilizzo dell'ottimizzazione all'interno delle statistiche.



3
Ottimizzazione dei modelli di computer stocastici
Questo è un argomento difficile per me stesso per google poiché avere le parole ottimizzazione e stocastico in una ricerca per impostazione predefinita è quasi automaticamente una ricerca di ottimizzazione stocastica. Ma quello che voglio veramente sapere sono quali metodi esistono per l'ottimizzazione dei modelli di computer quando l'output del …


1
L'enigma di un parrucchiere
La mia parrucchiera Stacey ha sempre una faccia felice, ma è spesso stressata nel gestire il suo tempo. Oggi Stacey era in ritardo per il mio appuntamento ed era molto dispiaciuto. Mentre mi tagliavo i capelli mi chiedevo: quanto tempo dovevano essere i suoi appuntamenti standard? (se la preferenza del …

3
Criterio di arresto per Nelder Mead
Sto cercando di implementare l'algoritmo Nelder-Mead per ottimizzare una funzione. La pagina di Wikipedia su Nelder-Mead è sorprendentemente chiara sull'intero algoritmo, ad eccezione del suo criterio di arresto. Lì dice tristemente: Verificare la convergenza [chiarimento necessario] . Ho provato e testato un paio di criteri me stesso: Fermati se dove …

1
R / mgcv: Perché i prodotti tensor te () e ti () producono superfici diverse?
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
MAP è una soluzione a
Mi sono imbattuto in queste diapositive (diapositiva n. 16 e n. 17) in uno dei corsi online. L'istruttore stava cercando di spiegare come la massima stima posteriore (MAP) sia effettivamente la soluzione L(θ)=I[θ≠θ∗]L(θ)=io[θ≠θ*]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , dove θ∗θ*\theta^{*} è il vero parametro. Qualcuno può spiegare come segue? Modifica: …

1
Relazione LASSO tra
La mia comprensione della regressione di LASSO è che i coefficienti di regressione sono selezionati per risolvere il problema di minimizzazione: minβ∥ y- Xβ∥22 s . t . ∥ β∥1≤ tminβ‖y-Xβ‖22 S.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t In pratica questo viene fatto usando un moltiplicatore di …


2
In che modo Tensorflow `tf.train.Optimizer` calcola i gradienti?
Sto seguendo il tutorial mnist di Tensorflow ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py ). Il tutorial usa tf.train.Optimizer.minimize(specificamente tf.train.GradientDescentOptimizer). Non vedo argomenti passati da nessuna parte per definire i gradienti. Il flusso del tensore utilizza la differenziazione numerica per impostazione predefinita? C'è un modo per passare in pendenze come puoi con scipy.optimize.minimize?

1
Perché il sistema di classificazione Elo utilizza una regola di aggiornamento errata?
Il sistema di classificazione Elo utilizza un algoritmo di minimizzazione della discesa gradiente della funzione di perdita tra entropia tra la probabilità attesa e quella osservata di un risultato nei confronti accoppiati. Possiamo scrivere le funzioni di perdita generali come E=−∑n,ipiLog(qi)E=−∑n,ipiLog(qi) E=-\sum_{n,i} p_i Log (q_i) dove la somma viene eseguita …


4
Modello di storia degli eventi a tempo discreto (Sopravvivenza) in R
Sto cercando di adattare un modello a tempo discreto in R, ma non sono sicuro di come farlo. Ho letto che puoi organizzare la variabile dipendente in diverse righe, una per ogni osservazione temporale e utilizzare la glmfunzione con un collegamento logit o cloglog. In questo senso, ho tre colonne: …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

4
Ottimizzazione della discesa gradiente
Sto cercando di comprendere l'ottimizzazione della discesa gradiente negli algoritmi ML (machine learning). Capisco che esiste una funzione di costo, in cui l'obiettivo è ridurre al minimo l'errore . In uno scenario in cui i pesi vengono ottimizzati per fornire l'errore minimo e vengono utilizzate derivate parziali, cambia sia che …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.