Domande taggate «matrix-decomposition»

La scomposizione della matrice si riferisce al processo di fattorizzazione di una matrice in un prodotto di matrici più piccole. Decomponendo una matrice di grandi dimensioni, è possibile eseguire in modo efficiente molti algoritmi di matrice.

1
Riduzione della dimensionalità (SVD o PCA) su una matrice ampia e sparsa
/ modifica: ulteriori follow-up ora è possibile utilizzare irlba :: prcomp_irlba / modifica: follow-up sul mio post. irlbaora ha argomenti "center" e "scale", che ti permettono di usarlo per calcolare i componenti principali, ad esempio: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v Ho una vasta gamma Matrixdi funzioni …


2
Perché PCA dei dati mediante SVD dei dati?
Questa domanda riguarda un modo efficiente per calcolare i componenti principali. Molti testi su PCA lineare sostengono l'uso della decomposizione a valore singolare dei dati casewise . Cioè, se abbiamo dati e vogliamo sostituire le variabili (le sue colonne ) con i componenti principali, facciamo SVD: , valori singolari (radici …

1
Calcolo efficiente dell'inverso della matrice in R
Ho bisogno di calcolare l'inverso della matrice e ho usato la solvefunzione. Mentre funziona bene su piccole matrici, solvetende ad essere molto lento su grandi matrici. Mi chiedevo se ci fossero altre funzioni o combinazioni di funzioni (tramite SVD, QR, LU o altre funzioni di decomposizione) che possano darmi risultati …

5
Articoli essenziali sulle decomposizioni matriciali
Di recente ho letto il libro di Skillicorn sulle scomposizioni matriciali ed ero un po 'deluso, poiché era destinato a un pubblico universitario. Vorrei compilare (per me e per gli altri) una breve bibliografia di articoli essenziali (sondaggi, ma anche articoli innovativi) sulle decomposizioni matriciali. Quello che ho in mente …

1
Aggiornamento della decomposizione SVD dopo aver aggiunto una nuova riga alla matrice
Supponiamo di avere una matrice densa di dimensioni , con decomposizione SVDIn posso calcolare la SVD come segue: .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Se una nuova riga viene aggiunta a , si può calcolare la nuova decomposizione SVD sulla base di quella vecchia (cioè usando , e ), senza ricalcolare SVD …



3
Come scegliere un numero ottimale di fattori latenti nella fattorizzazione a matrice non negativa?
Data una matrice Vm×nVm×n\mathbf V^{m \times n} , la fattorizzazione a matrice non negativa (NMF) trova due matrici non negative Wm×kWm×k\mathbf W^{m \times k} e Hk×nHk×n\mathbf H^{k \times n} (cioè con tutti gli elementi ≥0≥0\ge 0 ) per rappresentare la matrice decomposta come: V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, WW\mathbf …


1
Spiega come `eigen` aiuta a invertire una matrice
La mia domanda riguarda una tecnica di calcolo sfruttata in geoR:::.negloglik.GRFo geoR:::solve.geoR. In una configurazione lineare mista: dove e sono rispettivamente gli effetti fissi e casuali. Inoltre,Y= Xβ+ Zb + eY=Xβ+ZB+e Y=X\beta+Zb+e ββ\betaBBbΣ = cov ( Y)Σ=COV(Y)\Sigma=\text{cov}(Y) Quando si stimano gli effetti, è necessario calcolare che normalmente può essere fatto …

1
R / mgcv: Perché i prodotti tensor te () e ti () producono superfici diverse?
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Calcolo / stima rapidi di un sistema lineare di basso rango
I sistemi lineari di equazioni sono pervasivi nelle statistiche computazionali. Un sistema speciale che ho riscontrato (ad es. Nell'analisi fattoriale) è il sistema Ax=bAx=bAx=b dove A=D+BΩBTA=D+BΩBTA=D+ B \Omega B^T Qui DDD è una matrice diagonale n×nn×nn\times n con una diagonale strettamente positiva, ΩΩ\Omega è una matrice semi-definita positiva simmetrica m×mm×mm\times …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.