Domande taggate «dimensionality-reduction»

Si riferisce alle tecniche per ridurre un gran numero di variabili o dimensioni estese dai dati a un numero inferiore di dimensioni, preservando il maggior numero possibile di informazioni sui dati. I metodi di spicco includono PCA, MDS, Isomap, ecc. Le due sottoclassi principali di tecniche: estrazione e selezione delle caratteristiche.

5
In che modo i principali componenti principali possono conservare il potere predittivo su una variabile dipendente (o persino portare a previsioni migliori)?
Supponiamo che io sono in esecuzione una regressione Y∼XY∼XY \sim X . Perché selezionando i componenti principali di di , il modello mantiene il suo potere predittivo su ?kkkXXXYYY Capisco che dal punto di vista della riduzione di dimensionalità / selezione delle caratteristiche, se sono gli autovettori della matrice di …


3
La riduzione della dimensionalità per la visualizzazione dovrebbe essere considerata un problema "chiuso", risolto da t-SNE?
Ho letto molto sull'algoritmo -sne per la riduzione della dimensionalità. Sono rimasto molto colpito dalle prestazioni su set di dati "classici", come MNIST, in cui raggiunge una chiara separazione delle cifre ( vedi articolo originale ):ttt L'ho anche usato per visualizzare le funzionalità apprese da una rete neurale che mi …

2
In cosa consiste la "regressione di rango ridotto"?
Ho letto Gli elementi dell'apprendimento statistico e non riuscivo a capire di cosa trattasse la Sezione 3.7 "Riduzione e selezione di risultati multipli". Parla di RRR (regressione di rango ridotto) e posso solo capire che la premessa riguarda un modello lineare multivariato generalizzato in cui i coefficienti sono sconosciuti (e …

1
Perché ci sono solo
Nel PCA, quando il numero di dimensioni è maggiore (o addirittura uguale a) del numero di campioni N , perché avrai al massimo N - 1 autovettori diversi da zero? In altre parole, il rango della matrice di covarianza tra le dimensioni d ≥ N è N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge …



4
Perché i dati misti sono un problema per gli algoritmi di clustering basati su euclidi?
La maggior parte degli algoritmi classici di riduzione del clustering e della dimensionalità (clustering gerarchico, analisi dei componenti principali, k-media, mappe autoorganizzanti ...) sono progettati specificamente per i dati numerici e i loro dati di input sono visti come punti in uno spazio euclideo. Questo è ovviamente un problema, dato …


1
Come LDA, una tecnica di classificazione, funge anche da tecnica di riduzione della dimensionalità come la PCA
In questo articolo , l'autore collega l'analisi discriminante lineare (LDA) all'analisi dei componenti principali (PCA). Con le mie conoscenze limitate, non sono in grado di seguire come LDA possa essere in qualche modo simile alla PCA. Ho sempre pensato che la LDA fosse una forma di algoritmo di classificazione, simile …






Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.