Domande taggate «covariance»

La covarianza è una quantità utilizzata per misurare la forza e la direzione della relazione lineare tra due variabili. La covarianza non è graduata, e quindi spesso difficile da interpretare; se ridimensionato dalle SD delle variabili, diventa il coefficiente di correlazione di Pearson.





9
Come e perché funzionano la normalizzazione e il ridimensionamento delle funzionalità?
Vedo che molti algoritmi di machine learning funzionano meglio con la cancellazione media e l'equalizzazione della covarianza. Ad esempio, le reti neurali tendono a convergere più velocemente e K-Means generalmente fornisce un clustering migliore con funzionalità pre-elaborate. Non vedo l'intuizione dietro questi passaggi di pre-elaborazione che portano a prestazioni migliori. …

4
Covarianza e indipendenza?
Ho letto dal mio libro di testo che non garantisce che X e Y siano indipendenti. Ma se sono indipendenti, la loro covarianza deve essere 0. Non potrei ancora pensare a nessun esempio adeguato; qualcuno potrebbe fornire uno?cov ( X, Y) = 0cov(X,Y)=0\text{cov}(X,Y)=0


2
Cosa dice l'inverso della matrice di covarianza sui dati? (Intuitivamente)
Sono curioso della natura di . Qualcuno può dire qualcosa di intuitivo su "Cosa dice sui dati?"Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Modificare: Grazie per le risposte Dopo aver seguito alcuni ottimi corsi, vorrei aggiungere alcuni punti: È una misura di informazione, cioè è la quantità di informazioni lungo la direzione .xTΣ−1xxTΣ−1xx^T\Sigma^{-1}xxxx Dualità: poiché è …

6
Perché il denominatore dello stimatore della covarianza non dovrebbe essere n-2 anziché n-1?
Il denominatore dello stimatore di varianza (imparziale) è quanto vi sono osservazioni e viene stimato solo un parametro.n−1n−1n-1nnn V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} Allo stesso modo, mi chiedo perché il denominatore di covarianza non dovrebbe essere quando vengono stimati due parametri?n−2n−2n-2 Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}


3
Perché l'inversione di una matrice di covarianza produce correlazioni parziali tra variabili casuali?
Ho sentito che correlazioni parziali tra variabili casuali possono essere trovate invertendo la matrice di covarianza e prendendo le cellule appropriate da tale matrice di precisione risultante (questo fatto è menzionato in http://en.wikipedia.org/wiki/Partial_correlation , ma senza una prova) . Perché è così?

4
Come garantire le proprietà della matrice di covarianza quando si adatta il modello normale multivariato utilizzando la massima probabilità?
Supponiamo di avere il seguente modello yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i dove , è un vettore di variabili esplicative, sono i parametri della funzione non lineare e , dove è naturalmente matrice.yi∈RKyi∈RKy_i\in \mathbb{R}^Kxixix_iθθ\thetafffεi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma)ΣΣ\SigmaK×KK×KK\times K L'obiettivo è il solito per stimare e \ Sigma . La scelta ovvia è il metodo della massima verosimiglianza. …




Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.