Domande taggate «dimensionality-reduction»

Si riferisce alle tecniche per ridurre un gran numero di variabili o dimensioni estese dai dati a un numero inferiore di dimensioni, preservando il maggior numero possibile di informazioni sui dati. I metodi di spicco includono PCA, MDS, Isomap, ecc. Le due sottoclassi principali di tecniche: estrazione e selezione delle caratteristiche.






2
Qual è il vantaggio di ridurre la dimensionalità dei predittori ai fini della regressione?
Quali sono le applicazioni o i vantaggi della regressione della riduzione dimensionale (DRR) o delle tecniche di riduzione dimensionale supervisionata (SDR) rispetto alle tecniche di regressione tradizionale (senza alcuna riduzione dimensionale)? Questa classe di tecniche trova una rappresentazione a bassa dimensione dell'insieme di funzionalità per il problema di regressione. Esempi …



3
Il primo componente principale non separa le classi, ma altri PC lo fanno; come è possibile?
Ho eseguito PCA su 17 variabili quantitative al fine di ottenere un insieme più piccolo di variabili, ovvero i componenti principali, da utilizzare nell'apprendimento automatico supervisionato per classificare le istanze in due classi. Dopo PCA il PC1 rappresenta il 31% della varianza nei dati, PC2 rappresenta il 17%, PC3 rappresenta …

4
La "proiezione casuale" non è strettamente una proiezione?
Le attuali implementazioni dell'algoritmo di proiezione casuale riducono la dimensionalità dei campioni di dati mappandoli da a usando una matrice di proiezione cui voci sono tratte da una distribuzione adatta (ad esempio da ):RdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Convenientemente, esistono prove teoriche che dimostrano che questa …




2
Perché PCA massimizza la varianza totale della proiezione?
Christopher Bishop scrive nel suo libro Pattern Recognition and Machine Learning una dimostrazione che ogni componente principale consecutivo massimizza la varianza della proiezione in una dimensione, dopo che i dati sono stati proiettati nello spazio ortogonale ai componenti precedentemente selezionati. Altri mostrano prove simili. Tuttavia, ciò dimostra solo che ogni …

1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.