Domande taggate «dimensionality-reduction»

Si riferisce alle tecniche per ridurre un gran numero di variabili o dimensioni estese dai dati a un numero inferiore di dimensioni, preservando il maggior numero possibile di informazioni sui dati. I metodi di spicco includono PCA, MDS, Isomap, ecc. Le due sottoclassi principali di tecniche: estrazione e selezione delle caratteristiche.


1
Come invertire PCA e ricostruire variabili originali da diversi componenti principali?
L'analisi dei componenti principali (PCA) può essere utilizzata per la riduzione della dimensionalità. Dopo aver eseguito tale riduzione di dimensionalità, come si può ricostruire approssimativamente le variabili / caratteristiche originali da un piccolo numero di componenti principali? In alternativa, come si possono rimuovere o eliminare diversi componenti principali dai dati? …



2
Qual è la differenza tra lo sbiancamento ZCA e lo sbiancamento PCA?
Sono confuso circa lo sbiancamento ZCA e lo sbiancamento normale (che si ottiene dividendo i componenti principali per le radici quadrate degli autovalori PCA). Per quanto ne so, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, dove sono autovettori PCA.UU\mathbf U Quali sono gli usi dello sbiancamento ZCA? Quali sono le …

6
Modo di principio di collasso delle variabili categoriali con molti livelli?
Quali tecniche sono disponibili per il collasso (o il raggruppamento) di molte categorie a poche, allo scopo di usarle come input (predittore) in un modello statistico? Considera una variabile come quella di uno studente universitario (disciplina scelta da uno studente universitario). Non è ordinato e categorico, ma può potenzialmente avere …


2
Quando t-SNE è fuorviante?
Citando uno degli autori: t-Distributed Stochastic Neighbor Embedding (t-SNE) è una tecnica ( premiata ) per la riduzione della dimensionalità che è particolarmente adatta per la visualizzazione di set di dati ad alta dimensione. Quindi suona abbastanza bene, ma è l'autore a parlare. Un'altra citazione dell'autore (in riferimento al suddetto …

3
Perché t-SNE non viene utilizzato come tecnica di riduzione della dimensionalità per il clustering o la classificazione?
In un recente incarico, ci è stato detto di utilizzare PCA sulle cifre MNIST per ridurre le dimensioni da 64 (8 x 8 immagini) a 2. Abbiamo quindi dovuto raggruppare le cifre utilizzando un modello di miscela gaussiana. La PCA che utilizza solo 2 componenti principali non produce cluster distinti …

1
Qual è la ragione intuitiva alla base delle rotazioni in Factor Analysis / PCA e come selezionare la rotazione appropriata?
Le mie domande Qual è la ragione intuitiva alla base delle rotazioni dei fattori nell'analisi fattoriale (o dei componenti in PCA)? La mia comprensione è che se le variabili sono quasi ugualmente caricate nei componenti (o fattori) principali, ovviamente è difficile differenziare i componenti. Quindi in questo caso si potrebbe …


1
Riduzione della dimensionalità (SVD o PCA) su una matrice ampia e sparsa
/ modifica: ulteriori follow-up ora è possibile utilizzare irlba :: prcomp_irlba / modifica: follow-up sul mio post. irlbaora ha argomenti "center" e "scale", che ti permettono di usarlo per calcolare i componenti principali, ad esempio: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ho una vasta gamma Matrixdi funzioni …

5
Come gestire i dati gerarchici / nidificati nell'apprendimento automatico
Spiegherò il mio problema con un esempio. Supponiamo di voler prevedere il reddito di un individuo in base ad alcuni attributi: {Età, Genere, Paese, Regione, Città}. Hai un set di dati di allenamento come questo train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


2
Perché l'LDA di Python-scikit-learning non funziona correttamente e come calcola l'LDA tramite SVD?
Stavo usando Linear Discriminant Analysis (LDA) dalla scikit-learnlibreria di machine learning (Python) per la riduzione della dimensionalità ed ero un po 'curioso dei risultati. Mi chiedo ora cosa scikit-learnstia facendo l'ADL in modo che i risultati appaiano diversi, ad esempio, da un approccio manuale o da un ADL fatto in …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.