Domande taggate «optimization»

In statistica questo si riferisce alla selezione di uno stimatore di un parametro massimizzando o minimizzando alcune funzioni dei dati. Un esempio molto comune è la scelta di uno stimatore che massimizzi la densità articolare (o funzione di massa) dei dati osservati denominati Maximum Likelihood Estimation (MLE).







2
Perché gli algoritmi genetici non vengono utilizzati per ottimizzare le reti neurali?
Da quanto ho capito, gli algoritmi genetici sono potenti strumenti per l'ottimizzazione multi-obiettivo. Inoltre, addestrare le reti neurali (specialmente quelle profonde) è difficile e presenta molti problemi (funzioni di costo non convesse - minimi locali, gradienti di fuga e di esplosione, ecc.). Inoltre, sono fattibile allenare concettualmente una NN con …


1
Quante funzioni da campionare usando le foreste casuali
La pagina di Wikipedia che cita "Gli elementi dell'apprendimento statistico" dice: In genere, per un problema di classificazione con funzionalità ppp , le funzioni vengono utilizzate in ogni divisione.⌊ p-√⌋⌊p⌋\lfloor \sqrt{p}\rfloor Capisco che si tratta di una supposizione abbastanza istruita e probabilmente è stata confermata da prove empiriche, ma ci …

2
Perché non usare sempre la tecnica di ottimizzazione ADAM?
Sembra che l' ottimizzatore Adaptive Moment Estimation (Adam) funzioni quasi sempre meglio (più velocemente e in modo più affidabile raggiungendo un minimo globale) quando si minimizza la funzione di costo nell'addestramento delle reti neurali. Perché non usare sempre Adam? Perché preoccuparsi di usare RMSProp o gli ottimizzatori del momento?


3
Le migliori lingue per il calcolo scientifico [chiuso]
Chiuso . Questa domanda deve essere più focalizzata . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che si concentri su un problema solo modificando questo post . Chiuso 5 anni fa . Sembra che la maggior parte delle lingue abbia un certo numero …
10 efficiency  statistics  tools  knowledge-base  machine-learning  neural-network  deep-learning  optimization  hyperparameter  machine-learning  time-series  categorical-data  logistic-regression  python  visualization  bigdata  efficiency  classification  binary  svm  random-forest  logistic-regression  data-mining  sql  experiments  bigdata  efficiency  performance  scalability  distributed  bigdata  nlp  statistics  education  knowledge-base  definitions  machine-learning  recommender-system  evaluation  efficiency  algorithms  parameter  efficiency  scalability  sql  statistics  visualization  knowledge-base  education  machine-learning  r  python  r  text-mining  sentiment-analysis  machine-learning  machine-learning  python  neural-network  statistics  reference-request  machine-learning  data-mining  python  classification  data-mining  bigdata  usecase  apache-hadoop  map-reduce  aws  education  feature-selection  machine-learning  machine-learning  sports  data-formats  hierarchical-data-format  bigdata  apache-hadoop  bigdata  apache-hadoop  python  visualization  knowledge-base  classification  confusion-matrix  accuracy  bigdata  apache-hadoop  bigdata  efficiency  apache-hadoop  distributed  machine-translation  nlp  metadata  data-cleaning  text-mining  python  pandas  machine-learning  python  pandas  scikit-learn  bigdata  machine-learning  databases  clustering  data-mining  recommender-system 

2
Quando scegliere la regressione lineare o la regressione dell'albero decisionale o della foresta casuale? [chiuso]
Chiuso . Questa domanda deve essere più focalizzata . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che si concentri su un problema solo modificando questo post . Chiuso 4 anni fa . Sto lavorando a un progetto e ho difficoltà a decidere quale …
10 machine-learning  algorithms  random-forest  linear-regression  decision-trees  machine-learning  predictive-modeling  forecast  r  clustering  similarity  data-mining  dataset  statistics  text-mining  text-mining  data-cleaning  data-wrangling  machine-learning  classification  algorithms  xgboost  data-mining  dataset  dataset  regression  graphs  svm  unbalanced-classes  cross-validation  optimization  hyperparameter  genetic-algorithms  visualization  predictive-modeling  correlation  machine-learning  predictive-modeling  apache-spark  statistics  normalization  apache-spark  map-reduce  r  correlation  confusion-matrix  r  data-cleaning  classification  terminology  dataset  image-classification  machine-learning  regression  apache-spark  machine-learning  data-mining  nlp  parsing  machine-learning  dimensionality-reduction  visualization  clustering  multiclass-classification  evaluation  unsupervised-learning  machine-learning  machine-learning  data-mining  supervised-learning  unsupervised-learning  machine-learning  data-mining  classification  statistics  predictive-modeling  data-mining  clustering  python  pandas  machine-learning  dataset  data-cleaning  data  bigdata  software-recommendation 

2
Perché il tasso di apprendimento sta facendo salire alle stelle i pesi della mia rete neurale?
Sto usando tensorflow per scrivere semplici reti neurali per un po 'di ricerca e ho avuto molti problemi con i pesi' nan 'durante l'allenamento. Ho provato molte soluzioni diverse come cambiare l'ottimizzatore, cambiare la perdita, la dimensione dei dati, ecc. Ma senza alcun risultato. Infine, ho notato che un cambiamento …

2
Può verificarsi un overfitting negli algoritmi di ottimizzazione avanzata?
durante un corso online sull'apprendimento automatico di Andrew Ng in corso, mi sono imbattuto in un argomento chiamato overfitting . So che può verificarsi quando la discesa del gradiente viene utilizzata nella regressione lineare o logistica, ma può verificarsi quando vengono utilizzati algoritmi di ottimizzazione avanzata come "gradiente coniugato", "BFGS" …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.