Domande taggate «machine-learning»

Gli algoritmi di machine learning costruiscono un modello dei dati di training. Il termine "apprendimento automatico" è vagamente definito; include ciò che è anche chiamato apprendimento statistico, apprendimento di rinforzo, apprendimento senza supervisione, ecc. AGGIUNGI SEMPRE UN TAG PIÙ SPECIFICO.


1
Derivazione del cambiamento di variabili di una funzione di densità di probabilità?
Nel libro riconoscimento del modello e apprendimento automatico (formula 1.27), fornisce py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | dovex=g(y)x=g(y)x=g(y),px(x)px(x)p_x(x)è il pdf che corrisponde apy(y)py(y)p_y(y)rispetto alla modifica della variabile. Il libro dice che le osservazioni che rientrano nell'intervallo , per piccoli valori di δ x , verranno …

1
In che modo la discesa gradiente stocastica può far risparmiare tempo rispetto alla discesa gradiente standard?
Discesa gradiente standard calcolerebbe il gradiente per l'intero set di dati di allenamento. for i in range(nb_epochs): params_grad = evaluate_gradient(loss_function, data, params) params = params - learning_rate * params_grad Per un numero predefinito di epoche, prima calcoliamo il vettore gradiente weights_grad della funzione di perdita per l'intero set di dati …

4
L'accuratezza della macchina con incremento gradiente diminuisce all'aumentare del numero di iterazioni
Sto sperimentando l'algoritmo della macchina per aumentare il gradiente tramite il caretpacchetto in R. Utilizzando un piccolo set di dati di ammissione al college, ho eseguito il seguente codice: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 






1
Qual è l'intuizione dietro i campioni scambiabili sotto l'ipotesi nulla?
I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
Significato dei termini di output nel pacchetto gbm?
Sto usando il pacchetto gbm per la classificazione. Come previsto, i risultati sono buoni. Ma sto cercando di capire l'output del classificatore. Ci sono cinque termini in uscita. `Iter TrainDeviance ValidDeviance StepSize Improve` Qualcuno potrebbe spiegare il significato di ogni termine, in particolare il significato di Migliora .


2
Combinare i classificatori lanciando una moneta
Sto studiando un corso di apprendimento automatico e le diapositive delle lezioni contengono informazioni che ritengo contraddittorie con il libro raccomandato. Il problema è il seguente: ci sono tre classificatori: classificatore A che fornisce migliori prestazioni nell'intervallo inferiore delle soglie, classificatore B che fornisce migliori prestazioni nell'intervallo superiore delle soglie, …



Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.