Questa è una domanda molto ampia , che ritengo impossibile affrontare in modo completo in un'unica risposta. Pertanto, penso che sarebbe più utile fornire alcuni suggerimenti per risposte e / o risorse pertinenti. Questo è esattamente ciò che farò fornendo le seguenti informazioni e i miei pensieri.
Prima di tutto, dovrei menzionare il tutorial eccellente e completo sulla riduzione della dimensionalità di Burges (2009) di Microsoft Research. Tocca frequentemente aspetti ad alta dimensione dei dati durante la monografia. Questo lavoro, riferito alla riduzione della dimensionalità come riduzione della dimensione , presenta un'introduzione teorica al problema , suggerisce una tassonomia dei metodi di riduzione della dimensionalità, che consiste di metodi proiettivi e molteplici metodi di modellizzazione , oltre a fornire una panoramica di molteplici metodi in ciascuna categoria.
I metodi di "ricerca proiettiva " esaminati comprendono l'analisi dei componenti indipendenti (ICA) , l' analisi dei componenti principali (PCA) e le sue variazioni, come PCA del kernel e PCA probabilistico , analisi di correlazione canonica (CCA) e la sua variazione CCA del kernel , analisi discriminante lineare (LDA ) , riduzione della dimensione del kernel (KDR) e alcuni altri. I molteplici metodi esaminati includono il ridimensionamento multidimensionale (MDS) e la sua variazione MDS di riferimento , Isomap , Incorporamento lineare localee metodi grafici, come le autovapi laplaciane e il raggruppamento spettrale . Sto elencando la maggior parte dei metodi esaminati qui nel caso, se la pubblicazione originale è inaccessibile per te, online (link sopra) o offline (riferimenti).
C'è un avvertimento per il termine "completo" che ho applicato al lavoro di cui sopra. Sebbene sia effettivamente piuttosto completo, questo è relativo, poiché alcuni degli approcci alla riduzione della dimensionalità non sono discussi nella monografia, in particolare quelli focalizzati su variabili non osservabili (latenti) . Alcuni di essi sono citati, tuttavia, con riferimenti a un'altra fonte: un libro sulla riduzione della dimensionalità.
Ora tratterò brevemente alcuni aspetti più ristretti dell'argomento in questione facendo riferimento alle mie risposte pertinenti o correlate. Per quanto riguarda gli approcci di tipo vicini più vicini (NN) ai dati ad alta dimensione, si prega di consultare le mie risposte qui (in particolare consiglio di controllare il documento n. 4 nella mia lista). Uno degli effetti della maledizione della dimensionalità è che i dati ad alta dimensione sono spesso scarsi . Considerando questo fatto, ritengo che le mie risposte pertinenti qui e qui su regressione e PCA per dati sparsi e ad alta dimensione possano essere utili.
Riferimenti
Burges, CJC (2010). Riduzione dimensionale: una visita guidata. Foundations and Trends® in Machine Learning, 2 (4), 275-365. DOI: 10,1561 / 2.200.000,002 mila