Domande taggate «eigenvalues»

Per domande che implicano il calcolo o l'interpretazione di autovalori o autovettori.


3
Perché la matrice di correlazione deve essere semi-definita positiva e cosa significa essere o meno semi-definita positiva?
Ho studiato il significato della proprietà semi-definita positiva delle matrici di correlazione o covarianza. Sto cercando informazioni su Definizione di semi-definitività positiva; Le sue proprietà importanti, implicazioni pratiche; La conseguenza di avere determinante negativo, impatto sull'analisi multivariata o risultati della simulazione ecc.

1
Se generi una matrice simmetrica casuale, qual è la probabilità che sia definita positiva?
Ho avuto una strana domanda quando stavo sperimentando alcune ottimizzazioni convesse. La domanda è: Supponiamo che io casualmente (diciamo la distribuzione normale standard) generi una matrice simmetrica (ad esempio, io generi una matrice triangolare superiore e riempia la metà inferiore per assicurarmi che sia simmetrica), qual è la probabilità che …



1
Perché ci sono solo
Nel PCA, quando il numero di dimensioni è maggiore (o addirittura uguale a) del numero di campioni N , perché avrai al massimo N - 1 autovettori diversi da zero? In altre parole, il rango della matrice di covarianza tra le dimensioni d ≥ N è N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge …


1
Spiega come `eigen` aiuta a invertire una matrice
La mia domanda riguarda una tecnica di calcolo sfruttata in geoR:::.negloglik.GRFo geoR:::solve.geoR. In una configurazione lineare mista: dove e sono rispettivamente gli effetti fissi e casuali. Inoltre,Y= Xβ+ Zb + eY=Xβ+ZB+e Y=X\beta+Zb+e ββ\betaBBbΣ = cov ( Y)Σ=COV(Y)\Sigma=\text{cov}(Y) Quando si stimano gli effetti, è necessario calcolare che normalmente può essere fatto …



1
Confuso sulla spiegazione visiva degli autovettori: come possono gli insiemi di dati visivamente diversi avere gli stessi autovettori?
Molti libri di testo statistici forniscono un'illustrazione intuitiva di ciò che sono gli autovettori di una matrice di covarianza: I vettori u e Z formano gli autovettori (bene, eigenaxes). Questo ha senso. Ma l'unica cosa che mi confonde è che estraiamo gli autovettori dalla matrice di correlazione , non dai …


2
Perché PCA massimizza la varianza totale della proiezione?
Christopher Bishop scrive nel suo libro Pattern Recognition and Machine Learning una dimostrazione che ogni componente principale consecutivo massimizza la varianza della proiezione in una dimensione, dopo che i dati sono stati proiettati nello spazio ortogonale ai componenti precedentemente selezionati. Altri mostrano prove simili. Tuttavia, ciò dimostra solo che ogni …

2
Perché non riesco a ottenere un SVD valido di X tramite decomposizione autovalore di XX 'e X'X?
Sto cercando di fare SVD a mano: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Ma l'ultima riga non ritorna mindietro. Perché? Sembra avere qualcosa a che fare con i segni di questi autovettori ... O ho frainteso la procedura?
9 r  svd  eigenvalues 

2
Perché la quantità di varianza è spiegata dal mio 1 ° PC così vicino alla correlazione media a coppie?
Qual è la relazione tra i primi componenti principali e la correlazione media nella matrice di correlazione? Ad esempio, in un'applicazione empirica osservo che la correlazione media è quasi uguale al rapporto tra la varianza del primo componente principale (primo autovalore) e la varianza totale (somma di tutti gli autovalori). …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.