In un corso di apprendimento automatico, ho imparato che un uso comune di PCA ( Principal Component Analysis ) è quello di accelerare altri algoritmi di apprendimento automatico. Ad esempio, immagina di allenare un modello di regressione logistica. Se hai un set di addestramento per i da 1 a n e risulta che la dimensione del tuo vettore x è molto grande (diciamo una dimensione), tu può usare PCA per ottenere una dimensione più piccola (diciamo dimensioni k) caratteristica vettore z. Quindi è possibile addestrare il modello di regressione logistica sul set di addestramento per i da 1 a n. L'addestramento di questo modello sarà più veloce perché il vettore delle caratteristiche ha meno dimensioni.( z ( i ) , y ( i ) )
Tuttavia, non capisco perché non puoi semplicemente ridurre la dimensione del tuo vettore di funzione a k quote semplicemente scegliendo k delle tue caratteristiche a caso ed eliminando il resto.
I vettori z sono combinazioni lineari dei tuoi vettori di funzioni. Poiché i vettori z sono limitati a una superficie k-dimensionale, è possibile scrivere i valori di caratteristica eliminati ak come una funzione lineare dei valori di caratteristica rimanenti di k, e quindi tutte le z possono essere formate da combinazioni lineari di caratteristiche di k. Quindi un modello addestrato su un set di allenamento con caratteristiche eliminate non dovrebbe avere la stessa potenza di un modello addestrato su un set di allenamento la cui dimensione è stata ridotta dal PCA? Dipende solo dal tipo di modello e se si basa su una sorta di combinazione lineare?