Domande taggate «matrix-inverse»

3
Perché l'inversione di una matrice di covarianza produce correlazioni parziali tra variabili casuali?
Ho sentito che correlazioni parziali tra variabili casuali possono essere trovate invertendo la matrice di covarianza e prendendo le cellule appropriate da tale matrice di precisione risultante (questo fatto è menzionato in http://en.wikipedia.org/wiki/Partial_correlation , ma senza una prova) . Perché è così?

1
Calcolo efficiente dell'inverso della matrice in R
Ho bisogno di calcolare l'inverso della matrice e ho usato la solvefunzione. Mentre funziona bene su piccole matrici, solvetende ad essere molto lento su grandi matrici. Mi chiedevo se ci fossero altre funzioni o combinazioni di funzioni (tramite SVD, QR, LU o altre funzioni di decomposizione) che possano darmi risultati …

1
Spiega come `eigen` aiuta a invertire una matrice
La mia domanda riguarda una tecnica di calcolo sfruttata in geoR:::.negloglik.GRFo geoR:::solve.geoR. In una configurazione lineare mista: dove e sono rispettivamente gli effetti fissi e casuali. Inoltre,Y= Xβ+ Zb + eY=Xβ+ZB+e Y=X\beta+Zb+e ββ\betaBBbΣ = cov ( Y)Σ=COV(Y)\Sigma=\text{cov}(Y) Quando si stimano gli effetti, è necessario calcolare che normalmente può essere fatto …


1
Cosa fare quando la matrice di covarianza del campione non è invertibile?
Sto lavorando ad alcune tecniche di clustering, in cui per un determinato cluster di vettori di dimensione D presumo una distribuzione normale multivariata e calcolo il vettore medio d-dimensionale del campione e la matrice di covarianza del campione. Quindi, quando provo a decidere se un nuovo vettore invisibile, d-dimensionale appartiene …

1
R / mgcv: Perché i prodotti tensor te () e ti () producono superfici diverse?
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
Calcolo / stima rapidi di un sistema lineare di basso rango
I sistemi lineari di equazioni sono pervasivi nelle statistiche computazionali. Un sistema speciale che ho riscontrato (ad es. Nell'analisi fattoriale) è il sistema Ax=bAx=bAx=b dove A=D+BΩBTA=D+BΩBTA=D+ B \Omega B^T Qui DDD è una matrice diagonale n×nn×nn\times n con una diagonale strettamente positiva, ΩΩ\Omega è una matrice semi-definita positiva simmetrica m×mm×mm\times …

2
Spiegazione lucida per la "stabilità numerica dell'inversione della matrice" nella regressione della cresta e il suo ruolo nella riduzione dell'overfit
Capisco che possiamo impiegare la regolarizzazione in un problema di regressione dei minimi quadrati come w∗=argminw[(y−Xw)T(y−Xw)+λ∥w∥2]w∗=argminw⁡[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] e che questo problema ha una soluzione a forma chiusa come: w^=(XTX+λI)−1XTy.w^=(XTX+λI)−1XTy.\hat{\boldsymbol{w}} = (\boldsymbol{X}^T\boldsymbol{X}+\lambda\boldsymbol{I})^{-1}\boldsymbol{X}^T\boldsymbol{y}. Vediamo che nella seconda equazione, la regolarizzazione sta semplicemente aggiungendo λλ\lambda alla …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.