Quali sono le applicazioni o i vantaggi della regressione della riduzione dimensionale (DRR) o delle tecniche di riduzione dimensionale supervisionata (SDR) rispetto alle tecniche di regressione tradizionale (senza alcuna riduzione dimensionale)? Questa classe di tecniche trova una rappresentazione a bassa dimensione dell'insieme di funzionalità per il problema di regressione. Esempi di tali tecniche includono la regressione inversa a fette, le direzioni principali dell'Assia, la stima della varianza media a fette, la regressione inversa a fette del kernel, la regressione dei componenti principali, ecc.
In termini di RMSE con convalida incrociata, se un algoritmo si è comportato meglio su un'attività di regressione senza alcuna riduzione della dimensionalità, a che cosa serve la riduzione della dimensionalità per la regressione? Non capisco il punto di queste tecniche.
Queste tecniche sono usate per caso per ridurre la complessità di spazio e tempo per la regressione? Se questo è il vantaggio principale, sarebbero utili alcune risorse sulla riduzione della complessità per set di dati ad alta dimensione quando queste tecniche verranno utilizzate. Ne discuto con il fatto che eseguire una tecnica DRR o SDR richiede tempo e spazio. Questa regressione SDR / DRR + su un set di dati a bassa luminosità è più veloce della sola regressione su un set di dati a bassa luminosità?
Questa impostazione è stata studiata solo per interesse astratto e non ha una buona applicazione pratica?
Come pensiero laterale: a volte ci sono ipotesi che la distribuzione congiunta delle caratteristiche e la risposta si trovi su una varietà. Ha senso imparare la varietà dal campione osservato in questo contesto per risolvere un problema di regressione.Y