Sto studiando varie tecniche utilizzate nel raggruppamento di documenti e vorrei chiarire alcuni dubbi riguardanti PCA (analisi dei componenti principali) e LSA (analisi semantica latente). Prima cosa: quali sono le differenze tra loro? So che in PCA, la decomposizione SVD viene applicata alla matrice termine-covarianza, mentre in LSA è la …
Questa domanda riguarda un modo efficiente per calcolare i componenti principali. Molti testi su PCA lineare sostengono l'uso della decomposizione a valore singolare dei dati casewise . Cioè, se abbiamo dati e vogliamo sostituire le variabili (le sue colonne ) con i componenti principali, facciamo SVD: , valori singolari (radici …
Nel filtro collaborativo, abbiamo valori che non sono stati inseriti. Supponiamo che un utente non abbia guardato un film, quindi dobbiamo inserire un "na". Se ho intenzione di prendere un SVD di questa matrice, allora devo inserire un numero in essa - diciamo 0. Ora se fattorizzo la matrice, ho …
Mi sono imbattuto in uno scenario in cui ho 10 segnali / persona per 10 persone (quindi 100 campioni) contenenti 14000 punti dati (dimensioni) che devo passare a un classificatore. Vorrei ridurre la dimensionalità di questi dati e PCA sembra essere il modo per farlo. Tuttavia, sono stato in grado …
Osservo un comportamento molto strano nel risultato SVD di dati casuali, che posso riprodurre sia in Matlab che in R. Sembra un problema numerico nella libreria LAPACK; è? Traccio n=1000n=1000n=1000 campioni dal k=2k=2k=2 gaussiano dimensionale con zero covarianza di identità e media: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) . Li …
Ho capito come la regressione della cresta restringe geometricamente i coefficienti verso zero. Inoltre so come dimostrarlo nello speciale "caso ortonormale", ma sono confuso su come funziona nel caso generale tramite "decomposizione spettrale".
So calcolare matematicamente PCA e SVD e so che entrambi possono essere applicati alla regressione dei minimi quadrati lineari. Il vantaggio principale di SVD matematicamente sembra essere che può essere applicato a matrici non quadrate. Entrambi si concentrano sulla decomposizione della matriceA parte il vantaggio di SVD menzionato, ci sono …
Ho un paio di domande rapide su PCA: Il PCA presume che il set di dati sia gaussiano? Cosa succede quando applico un PCA a dati intrinsecamente non lineari? Dato un set di dati, il processo consiste innanzitutto nel normalizzare la media, impostare la varianza su 1, prendere un SVD, …
Sto cercando di implementare un biplot per l'analisi dei componenti principali (PCA) in JavaScript. La mia domanda è: come posso determinare le coordinate delle frecce dall'uscita della decomposizione vettoriale singolare (SVD) della matrice di dati?U,V,DU,V,DU,V,D Ecco un esempio di biplot prodotto da R: biplot(prcomp(iris[,1:4])) Ho provato a cercarlo nell'articolo di …
Di recente ho letto il libro di Skillicorn sulle scomposizioni matriciali ed ero un po 'deluso, poiché era destinato a un pubblico universitario. Vorrei compilare (per me e per gli altri) una breve bibliografia di articoli essenziali (sondaggi, ma anche articoli innovativi) sulle decomposizioni matriciali. Quello che ho in mente …
Voglio implementare un algoritmo in un documento che utilizza il kernel SVD per scomporre una matrice di dati. Quindi ho letto materiale sui metodi del kernel e sul kernel PCA ecc. Ma mi è ancora molto oscuro soprattutto quando si tratta di dettagli matematici, e ho alcune domande. Perché i …
Supponiamo di avere una matrice densa di dimensioni , con decomposizione SVDIn posso calcolare la SVD come segue: .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Se una nuova riga viene aggiunta a , si può calcolare la nuova decomposizione SVD sulla base di quella vecchia (cioè usando , e ), senza ricalcolare SVD …
L'articolo di Wikipedia sull'analisi dei componenti principali afferma che Esistono algoritmi efficienti per calcolare l'SVD di senza dover formare la matrice , quindi il calcolo dell'SVD è ora il modo standard per calcolare un'analisi dei componenti principali da una matrice di dati, a meno che non sia necessaria solo una …
Supponiamo di avere NNN variabili misurabili, , facciamo un numero di misurazioni e quindi desideriamo eseguire una decomposizione di valore singolare sui risultati per trovare gli assi con la varianza più alta per i punti nello spazio N- dimensionale. ( Nota: supponiamo che i mezzi di a_i siano già stati …
I componenti PCA (nell'analisi dei componenti principali) sono statisticamente indipendenti se i nostri dati sono multivariati normalmente distribuiti? In tal caso, come può essere dimostrato / provato? Lo chiedo perché ho visto questo post , in cui la risposta principale afferma: PCA non fa un'ipotesi esplicita di gaussianità. Trova gli …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.