Un campo della matematica interessato allo studio di spazi vettoriali di dimensioni finite, comprese le matrici e la loro manipolazione, che sono importanti in statistica.
Ho notato ultimamente che molte persone stanno sviluppando equivalenti tensoriali di molti metodi (fattorizzazione tensoriale, kernel tensoriale, tensori per la modellazione di argomenti, ecc.) Mi chiedo, perché il mondo è improvvisamente affascinato dai tensori? Ci sono documenti recenti / risultati standard che sono particolarmente sorprendenti, che hanno portato a questo? …
Ho lavorato per un po 'in R e mi sono trovato di fronte a cose come PCA, SVD, decomposizioni QR e molti di questi risultati di algebra lineare (durante l'ispezione della stima di regressioni ponderate e simili), quindi volevo sapere se qualcuno ha una raccomandazione su un buon libro di …
Ho letto molto su PCA, compresi vari tutorial e domande (come questo , questo , questo e questo ). Il problema geometrico che PCA sta cercando di ottimizzare è chiaro per me: PCA cerca di trovare il primo componente principale minimizzando l'errore di ricostruzione (proiezione), che massimizza simultaneamente la varianza …
Ho letto della decomposizione a valore singolare (SVD). In quasi tutti i libri di testo viene menzionato il fatto che fattorizza la matrice in tre matrici con specifiche specificate. Ma qual è l'intuizione dietro la divisione della matrice in tale forma? PCA e altri algoritmi per la riduzione della dimensionalità …
Immagino che la risposta dovrebbe essere sì, ma sento ancora che qualcosa non va. Dovrebbero esserci dei risultati generali in letteratura, qualcuno potrebbe aiutarmi?
Ho sentito che correlazioni parziali tra variabili casuali possono essere trovate invertendo la matrice di covarianza e prendendo le cellule appropriate da tale matrice di precisione risultante (questo fatto è menzionato in http://en.wikipedia.org/wiki/Partial_correlation , ma senza una prova) . Perché è così?
Diciamo che ho una distribuzione gaussiana multivariata . E prendo osservazioni (ciascuno di essi un -vettore) da questa distribuzione e calcolare la matrice di covarianza del campione . In questo articolo , gli autori affermano che la matrice di covarianza del campione calcolata con è singolare.n p S p > …
Sto studiando PCA dal corso Coursera di Andrew Ng e altri materiali. Nel primo incarico di Stanford sulla PNL cs224n , e nel video della lezione di Andrew Ng , fanno una scomposizione di valore singolare invece della decomposizione di autovettori della matrice di covarianza, e Ng dice persino che …
Se e sono due vettori di unità casuali indipendenti in (distribuiti uniformemente su una sfera unitaria), qual è la distribuzione del loro prodotto scalare (prodotto punto) ?xx\mathbf{x}yy\mathbf{y}RDRD\mathbb{R}^Dx⋅yx⋅y\mathbf x \cdot \mathbf y Immagino che quando aumenta rapidamente la distribuzione (?) Diventa normale con media zero e varianza decrescente in dimensioni superiori …
Osservo un comportamento molto strano nel risultato SVD di dati casuali, che posso riprodurre sia in Matlab che in R. Sembra un problema numerico nella libreria LAPACK; è? Traccio n=1000n=1000n=1000 campioni dal k=2k=2k=2 gaussiano dimensionale con zero covarianza di identità e media: X∼N(0,I)X∼N(0,I)X\sim \mathcal N (0, \mathbf I) . Li …
Conosco la definizione di matrice simmetrica positiva definita (SPD), ma voglio capire di più. Perché sono così importanti, intuitivamente? Ecco quello che so. Cos'altro? Per un dato dato, la matrice di varianza è SPD. La matrice di varianza è una metrica importante, vedi questo eccellente post per una spiegazione intuitiva. …
Sto cercando di ottenere una comprensione intuitiva di come funziona l'analisi dei componenti principali (PCA) nello spazio soggetto (doppio) . Considerare un set di dati 2D con due variabili, x1x1x_1 e e punti dati (la matrice di dati è e si presume che sia centrata). La normale presentazione di PCA …
Voglio trasformare i miei dati XX\mathbf X tale che le varianze saranno una e le covarianze saranno zero (cioè voglio sbiancare i dati). Inoltre, i mezzi dovrebbero essere zero. So che ci arriverò facendo la standardizzazione Z e la trasformazione PCA, ma in quale ordine dovrei farlo? Aggiungo che la …
Questa è una domanda molto semplice ma non riesco a trovare la derivazione da nessuna parte su Internet o in un libro. Vorrei vedere la derivazione di come un bayesiano aggiorna una distribuzione normale multivariata. Ad esempio: immagina P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.