Nell'odierna classe di riconoscimento dei modelli il mio professore ha parlato di PCA, autovettori ed autovalori. Ne ho capito la matematica. Se mi viene chiesto di trovare autovalori ecc. Lo farò correttamente come una macchina. Ma non l'ho capito . Non ne ho avuto lo scopo. Non ne ho avuto …
Ho studiato il significato della proprietà semi-definita positiva delle matrici di correlazione o covarianza. Sto cercando informazioni su Definizione di semi-definitività positiva; Le sue proprietà importanti, implicazioni pratiche; La conseguenza di avere determinante negativo, impatto sull'analisi multivariata o risultati della simulazione ecc.
Ho avuto una strana domanda quando stavo sperimentando alcune ottimizzazioni convesse. La domanda è: Supponiamo che io casualmente (diciamo la distribuzione normale standard) generi una matrice simmetrica (ad esempio, io generi una matrice triangolare superiore e riempia la metà inferiore per assicurarmi che sia simmetrica), qual è la probabilità che …
Qual è la differenza nel centrare (o decifrare) i tuoi dati per PCA? Ho sentito che semplifica la matematica o che impedisce al primo PC di essere dominato dai mezzi delle variabili, ma mi sento come se non fossi ancora riuscito a cogliere fermamente il concetto. Ad esempio, la risposta …
Sto studiando PCA dal corso Coursera di Andrew Ng e altri materiali. Nel primo incarico di Stanford sulla PNL cs224n , e nel video della lezione di Andrew Ng , fanno una scomposizione di valore singolare invece della decomposizione di autovettori della matrice di covarianza, e Ng dice persino che …
Nel PCA, quando il numero di dimensioni è maggiore (o addirittura uguale a) del numero di campioni N , perché avrai al massimo N - 1 autovettori diversi da zero? In altre parole, il rango della matrice di covarianza tra le dimensioni d ≥ N è N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge …
Quando si osservano gli autovettori della matrice di covarianza, si ottengono le direzioni della massima varianza (il primo autovettore è la direzione in cui i dati variano maggiormente, ecc.); questo si chiama analisi dei componenti principali (PCA). Mi chiedevo cosa significherebbe guardare gli autovettori / i valori della matrice delle …
La mia domanda riguarda una tecnica di calcolo sfruttata in geoR:::.negloglik.GRFo geoR:::solve.geoR. In una configurazione lineare mista: dove e sono rispettivamente gli effetti fissi e casuali. Inoltre,Y= Xβ+ Zb + eY=Xβ+ZB+e Y=X\beta+Zb+e ββ\betaBBbΣ = cov ( Y)Σ=COV(Y)\Sigma=\text{cov}(Y) Quando si stimano gli effetti, è necessario calcolare che normalmente può essere fatto …
Sto cercando di scomporre una matrice di covarianza basata su un set di dati sparsi / vuoti. Sto notando che la somma di lambda (spiegazione della varianza), calcolata con svd, viene amplificata con dati sempre più vuoti. Senza lacune svde eigenottieni gli stessi risultati. Ciò non sembra accadere con una …
Sto parlando qui delle matrici delle correlazioni di Pearson. Ho sentito spesso dire che tutte le matrici di correlazione devono essere semidefinite positive. La mia comprensione è che le matrici definite positive devono avere autovalori , mentre le matrici semidefinite positive devono avere autovalori . Questo mi fa pensare che …
Molti libri di testo statistici forniscono un'illustrazione intuitiva di ciò che sono gli autovettori di una matrice di covarianza: I vettori u e Z formano gli autovettori (bene, eigenaxes). Questo ha senso. Ma l'unica cosa che mi confonde è che estraiamo gli autovettori dalla matrice di correlazione , non dai …
Sto facendo un'analisi Matlab sui dati MRI in cui ho eseguito PCA su una matrice di dimensioni 10304x236 in cui 10304 è il numero di voxel (pensali come pixel) e 236 è il numero di timepunti. Il PCA mi dà 236 autovalori e i relativi coefficienti. Va tutto bene. Tuttavia, …
Christopher Bishop scrive nel suo libro Pattern Recognition and Machine Learning una dimostrazione che ogni componente principale consecutivo massimizza la varianza della proiezione in una dimensione, dopo che i dati sono stati proiettati nello spazio ortogonale ai componenti precedentemente selezionati. Altri mostrano prove simili. Tuttavia, ciò dimostra solo che ogni …
Sto cercando di fare SVD a mano: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Ma l'ultima riga non ritorna mindietro. Perché? Sembra avere qualcosa a che fare con i segni di questi autovettori ... O ho frainteso la procedura?
Qual è la relazione tra i primi componenti principali e la correlazione media nella matrice di correlazione? Ad esempio, in un'applicazione empirica osservo che la correlazione media è quasi uguale al rapporto tra la varianza del primo componente principale (primo autovalore) e la varianza totale (somma di tutti gli autovalori). …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.