La scomposizione della matrice si riferisce al processo di fattorizzazione di una matrice in un prodotto di matrici più piccole. Decomponendo una matrice di grandi dimensioni, è possibile eseguire in modo efficiente molti algoritmi di matrice.
/ modifica: ulteriori follow-up ora è possibile utilizzare irlba :: prcomp_irlba / modifica: follow-up sul mio post. irlbaora ha argomenti "center" e "scale", che ti permettono di usarlo per calcolare i componenti principali, ad esempio: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ho una vasta gamma Matrixdi funzioni …
Dato un PCA (o SVD) ravvicinamento delle matrici XXX con una matrice X , sappiamo che X è la migliore approssimazione basso rango di X .X^X^\hat XX^X^\hat XXXX È questo secondo la norma ∥ ⋅ ∥ 2 indotta∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (ovvero la più grande norma sugli autovalori) o secondo la …
Questa domanda riguarda un modo efficiente per calcolare i componenti principali. Molti testi su PCA lineare sostengono l'uso della decomposizione a valore singolare dei dati casewise . Cioè, se abbiamo dati e vogliamo sostituire le variabili (le sue colonne ) con i componenti principali, facciamo SVD: , valori singolari (radici …
Ho bisogno di calcolare l'inverso della matrice e ho usato la solvefunzione. Mentre funziona bene su piccole matrici, solvetende ad essere molto lento su grandi matrici. Mi chiedevo se ci fossero altre funzioni o combinazioni di funzioni (tramite SVD, QR, LU o altre funzioni di decomposizione) che possano darmi risultati …
Di recente ho letto il libro di Skillicorn sulle scomposizioni matriciali ed ero un po 'deluso, poiché era destinato a un pubblico universitario. Vorrei compilare (per me e per gli altri) una breve bibliografia di articoli essenziali (sondaggi, ma anche articoli innovativi) sulle decomposizioni matriciali. Quello che ho in mente …
Supponiamo di avere una matrice densa di dimensioni , con decomposizione SVDIn posso calcolare la SVD come segue: .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Se una nuova riga viene aggiunta a , si può calcolare la nuova decomposizione SVD sulla base di quella vecchia (cioè usando , e ), senza ricalcolare SVD …
Considera una serie temporale semplice: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 possiamo calcolare una matrice di adiacenza per questa serie temporale che rappresenta i collegamenti temporali tra i campioni. Nel calcolare questa matrice aggiungiamo un sito immaginario al tempo …
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso 2 anni fa . Qualcuno potrebbe inventare un codice R per tracciare un'ellisse dagli autovalori e dagli autovettori della seguente matrice …
Data una matrice Vm×nVm×n\mathbf V^{m \times n} , la fattorizzazione a matrice non negativa (NMF) trova due matrici non negative Wm×kWm×k\mathbf W^{m \times k} e Hk×nHk×n\mathbf H^{k \times n} (cioè con tutti gli elementi ≥0≥0\ge 0 ) per rappresentare la matrice decomposta come: V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, WW\mathbf …
Sto lavorando a un progetto per il filtro collaborativo (CF), ovvero il completamento di una matrice parzialmente osservata o più generalmente tensore. Sono un principiante sul campo, e per questo progetto alla fine devo confrontare il nostro metodo con altri ben noti che al giorno d'oggi, i metodi proposti vengono …
La mia domanda riguarda una tecnica di calcolo sfruttata in geoR:::.negloglik.GRFo geoR:::solve.geoR. In una configurazione lineare mista: dove e sono rispettivamente gli effetti fissi e casuali. Inoltre,Y= Xβ+ Zb + eY=Xβ+ZB+e Y=X\beta+Zb+e ββ\betaBBbΣ = cov ( Y)Σ=COV(Y)\Sigma=\text{cov}(Y) Quando si stimano gli effetti, è necessario calcolare che normalmente può essere fatto …
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
In tutti i moderni sistemi di raccomandazione che ho visto che si basano sulla fattorizzazione a matrice, viene eseguita una fattorizzazione a matrice non negativa sulla matrice di film utente. Riesco a capire perché la non negatività sia importante per l'interpretazione e / o se si desidera avere fattori sparsi. …
I sistemi lineari di equazioni sono pervasivi nelle statistiche computazionali. Un sistema speciale che ho riscontrato (ad es. Nell'analisi fattoriale) è il sistema Ax=bAx=bAx=b dove A=D+BΩBTA=D+BΩBTA=D+ B \Omega B^T Qui DDD è una matrice diagonale n×nn×nn\times n con una diagonale strettamente positiva, ΩΩ\Omega è una matrice semi-definita positiva simmetrica m×mm×mm\times …
Prendi in considerazione il problema del filtro collaborativo. Abbiamo una matrice di taglia #user * #items. se l'utente mi piace l'articolo j, se l'utente non ama l'articolo j e M_ {i, j} =? se non ci sono dati sulla coppia (i, j). Vogliamo prevedere M_ {i, j} per utenti futuri, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.