L'analisi dei componenti principali (PCA) viene di solito spiegata tramite una decomposizione degli automi della matrice di covarianza. Tuttavia, può anche essere eseguita mediante decomposizione in valori singolari (SVD) della matrice dati . Come funziona? Qual è la connessione tra questi due approcci? Qual è la relazione tra SVD e …
L'analisi dei componenti principali (PCA) può essere utilizzata per la riduzione della dimensionalità. Dopo aver eseguito tale riduzione di dimensionalità, come si può ricostruire approssimativamente le variabili / caratteristiche originali da un piccolo numero di componenti principali? In alternativa, come si possono rimuovere o eliminare diversi componenti principali dai dati? …
Sto iniziando a dilettarsi con l'uso di glmnetcon LASSO Regressione dove il mio risultato di interesse è dicotomica. Di seguito ho creato un piccolo frame di dati finti: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) …
Ho letto della decomposizione a valore singolare (SVD). In quasi tutti i libri di testo viene menzionato il fatto che fattorizza la matrice in tre matrici con specifiche specificate. Ma qual è l'intuizione dietro la divisione della matrice in tale forma? PCA e altri algoritmi per la riduzione della dimensionalità …
Il biplot viene spesso utilizzato per visualizzare i risultati dell'analisi dei componenti principali (e delle relative tecniche). È un grafico a dispersione doppio o overlay che mostra i caricamenti e i punteggi dei componenti contemporaneamente. Oggi sono stato informato da @amoeba che ha dato una risposta partendo dal mio commento …
Qualcuno può raccomandare una buona esposizione della teoria alla base della regressione dei minimi quadrati parziali (disponibile online) per qualcuno che capisce SVD e PCA? Ho esaminato molte fonti online e non ho trovato nulla che avesse la giusta combinazione di rigore e accessibilità. Ho esaminato The Elements of Statistical …
/ modifica: ulteriori follow-up ora è possibile utilizzare irlba :: prcomp_irlba / modifica: follow-up sul mio post. irlbaora ha argomenti "center" e "scale", che ti permettono di usarlo per calcolare i componenti principali, ad esempio: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ho una vasta gamma Matrixdi funzioni …
Qual è la differenza nel centrare (o decifrare) i tuoi dati per PCA? Ho sentito che semplifica la matematica o che impedisce al primo PC di essere dominato dai mezzi delle variabili, ma mi sento come se non fossi ancora riuscito a cogliere fermamente il concetto. Ad esempio, la risposta …
Sono un po 'confuso da come viene utilizzato SVD nel filtro collaborativo. Supponiamo di avere un grafico sociale e di costruire una matrice di adiacenza dai bordi, quindi prendere un SVD (dimentichiamoci di regolarizzazione, tassi di apprendimento, ottimizzazioni di sparsità, ecc.), Come posso usare questo SVD per migliorare i miei …
Sto solo cercando di replicare un reclamo fatto nel seguente documento, Trovare i ciclotteri correlati dai dati di espressione genica , che è: Proposta 4. Se . Poi abbiamo:XioJ= RioCTJXIJ=RICJTX_{IJ}=R_{I}C^{T}_{J} io. Se è un ciclista perfetto con modello additivo, allora è un ciclista perfetto con correlazione su colonne; ii. Se …
Sto studiando PCA dal corso Coursera di Andrew Ng e altri materiali. Nel primo incarico di Stanford sulla PNL cs224n , e nel video della lezione di Andrew Ng , fanno una scomposizione di valore singolare invece della decomposizione di autovettori della matrice di covarianza, e Ng dice persino che …
Dato un PCA (o SVD) ravvicinamento delle matrici XXX con una matrice X , sappiamo che X è la migliore approssimazione basso rango di X .X^X^\hat XX^X^\hat XXXX È questo secondo la norma ∥ ⋅ ∥ 2 indotta∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (ovvero la più grande norma sugli autovalori) o secondo la …
Stavo usando Linear Discriminant Analysis (LDA) dalla scikit-learnlibreria di machine learning (Python) per la riduzione della dimensionalità ed ero un po 'curioso dei risultati. Mi chiedo ora cosa scikit-learnstia facendo l'ADL in modo che i risultati appaiano diversi, ad esempio, da un approccio manuale o da un ADL fatto in …
Qual è il modo migliore per calcolare la decomposizione a valore singolare (SVD) di una matrice positiva molto grande (65 M x 3,4 M) in cui i dati sono estremamente scarsi? Meno dello 0,1% della matrice è diverso da zero. Ho bisogno di un modo che: andrà bene nella memoria …
Ho una matrice di correlazione dei ritorni di sicurezza il cui determinante è zero. (Questo è un po 'sorprendente poiché la matrice di correlazione del campione e la matrice di covarianza corrispondente dovrebbero teoricamente essere definite positive.) La mia ipotesi è che almeno un titolo dipenda linearmente da altri titoli. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.