I valori di ridimensionamento in un'analisi discriminante lineare (LDA) possono essere utilizzati per tracciare variabili esplicative sui discriminanti lineari?


11

Utilizzando un biplot di valori ottenuti attraverso l'analisi dei componenti principali, è possibile esplorare le variabili esplicative che compongono ciascun componente principale. Ciò è possibile anche con l'analisi discriminante lineare?

Gli esempi forniti utilizzano I dati sono "Dati Iris di Edgar Anderson" ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Ecco i dati dell'iride :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

Esempio di biplot PCA utilizzando il set di dati dell'iride in R (codice sotto):

inserisci qui la descrizione dell'immagine

Questa figura indica che la lunghezza e la larghezza del petalo sono importanti per determinare il punteggio PC1 e discriminare i gruppi di specie. setosa ha petali più piccoli e sepali più larghi.

Apparentemente, conclusioni simili possono essere tratte dalla stampa di risultati di analisi discriminanti lineari, anche se non sono sicuro di ciò che presenta il diagramma LDA, quindi la domanda. Gli assi sono i primi due discriminanti lineari (LD1 99% e LD2 1% di traccia). Le coordinate dei vettori rossi sono "Coefficienti di discriminanti lineari" descritti anche come "ridimensionamento" (ridimensionamento lda.fit $: una matrice che trasforma le osservazioni in funzioni discriminanti, normalizzata in modo tale che all'interno della matrice di covarianza dei gruppi sia sferica). il "ridimensionamento" viene calcolato come diag(1/f1, , p)e f1 is sqrt(diag(var(x - group.means[g, ]))). I dati possono essere proiettati sui discriminanti lineari (usando predict.lda) (codice sotto, come dimostrato https://stackoverflow.com/a/17240647/742447). I dati e le variabili predittive sono tracciati insieme in modo tale che quali specie siano definite da un aumento in cui possono essere viste le variabili predittive (come avviene per i normali biplot PCA e il suddetto biplot PCA) .:

Esempio di biplot LDA che utilizza il set di dati dell'iride in R

Da questo diagramma, Larghezza sepale, Larghezza petalo e Lunghezza petalo contribuiscono tutti a un livello simile a LD1. Come previsto, la setosa appare a petali più piccoli e sepali più ampi.

Non esiste un modo integrato per tracciare tali biplot da LDA in R e poche discussioni su questo online, il che mi rende diffidente a questo approccio.

Questo diagramma LDA (vedere il codice seguente) fornisce un'interpretazione statisticamente valida dei punteggi di ridimensionamento delle variabili predittori?

Codice per PCA:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

Codice per LDA

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

I risultati dell'ADL sono i seguenti

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088

Non riesco a seguire il tuo codice (non sono un utente R e preferirei vedere dati reali e valori dei risultati piuttosto che immagini inspiegabili e codice inspiegabile), mi dispiace. Cosa tracciano le tue trame? Quali sono le coordinate dei vettori rossi - pesi regressivi dei latenti o delle variabili? Per cosa hai tracciato anche i data poin? Che cosa è discriminant predictor variable scaling scores? - il termine mi sembra non comune e strano.
ttnphns,

@ttnphns: grazie per aver suggerito miglioramenti della domanda che ora si riflettono nella domanda.
Etienne Low-Décarie,

Ancora non so cosa sia predictor variable scaling scores. Forse "punteggi discriminanti"? Comunque, ho aggiunto una risposta che potrebbe essere di tuo interesse.
ttnphns,

Risposte:


7

Analisi delle componenti principali e risultati dell'analisi discriminante lineare ; dati dell'iride .

Non disegnerò bipoti perché i bipoti possono essere disegnati con varie normalizzazioni e quindi possono apparire diversi. Dato che non sono un Rutente, ho difficoltà a rintracciare come hai prodotto i tuoi grafici, a ripeterli. Invece, farò PCA e LDA e mostrerò i risultati, in un modo simile a questo (potresti voler leggere). Entrambe le analisi sono state eseguite in SPSS.

Componenti principali dei dati dell'iride :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

È importante sottolineare che sono i caricamenti, non gli autovettori, con cui in genere interpretiamo i componenti principali (o i fattori nell'analisi dei fattori), se dobbiamo interpretarli. I carichi sono i coefficienti regressivi delle variabili di modellazione per componenti standardizzati . Allo stesso tempo, poiché i componenti non intercorrelano, sono le covarianze tra tali componenti e le variabili. I caricamenti standardizzati (riscalati), come le correlazioni, non possono superare 1 e sono più utili da interpretare perché l'effetto di varianze disuguali delle variabili viene rimosso.

Sono i caricamenti, non gli autovettori, che in genere vengono visualizzati su un biplot fianco a fianco con i punteggi dei componenti; questi ultimi vengono spesso visualizzati come colonne normalizzati.


Discriminanti lineari dei dati dell'iride :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

Per i calcoli all'estrazione di discriminanti in LDA, guarda qui . Interpretiamo i discriminanti di solito in base a coefficienti discriminanti o coefficienti discriminanti standardizzati (questi ultimi sono più utili perché viene tolta la varianza differenziale nelle variabili). Questo è come in PCA. Ma nota: i coefficienti qui sono i coefficienti regressivi della modellizzazione dei discriminanti per variabili , non viceversa, come avveniva nella PCA. Poiché le variabili non sono correlate, i coefficienti non possono essere visti come covarianze tra variabili e discriminanti.

Tuttavia, abbiamo un'altra matrice che può servire come fonte alternativa di interpretazione dei discriminanti: correlazioni all'interno del gruppo tra discriminanti e variabili. Poiché i discriminanti non sono correlati, come i PC, questa matrice è in un certo senso analoga ai caricamenti standardizzati di PCA.

In tutto, mentre in PCA abbiamo l'unica matrice - i caricamenti - per aiutare a interpretare i latenti, in LDA abbiamo due matrici alternative per questo. Se hai bisogno di tracciare (biplot o altro), devi decidere se tracciare coefficienti o correlazioni.

E, naturalmente, è inutile ricordare che nel PCA dei dati dell'iride i componenti non "sanno" che ci sono 3 classi; non ci si può aspettare che discriminino le classi. I discriminanti "sanno" che ci sono classi ed è il loro lavoro naturale discriminare.


Quindi posso tracciare, dopo un ridimensionamento arbitrario, "Coefficienti discriminanti standardizzati" o "Correlazioni all'interno di gruppi raggruppati tra variabili e discriminanti" sullo stesso asse di "Punte discriminanti" per interpretare i risultati in due modi diversi? Nella mia domanda avevo tracciato "Coefficienti discriminanti non standardizzati" sullo stesso asse dei "punteggi discriminanti".
Etienne Low-Décarie,

1
@Etienne Ho aggiunto i dettagli che hai chiesto in fondo a questa risposta stats.stackexchange.com/a/48859/3277 . Grazie per la vostra generosità.
ttnphns,

1
@TLJ, dovrebbe essere: tra variabili e componenti standardizzati . Ho inserito la parola. Si prega di consultare qui : Loadings are the coefficients to predict...così come qui : [Footnote: The components' values...]. I carichi sono coefficienti per calcolare le variabili da componenti standardizzati e ortogonali, in virtù di quali carichi sono le covarianze tra questi e quelli.
ttnphns,

1
@TLJ, "these and those" = variabili e componenti. Hai detto di aver calcolato i punteggi dei componenti grezzi. Standardizza ogni componente a varianza = 1. Calcola le covarianze tra le variabili e i componenti. Quello sarebbe i caricamenti. Il caricamento "standardizzato" o "riscalato" è il caricamento diviso per la st. deviazione della rispettiva variabile.
ttnphns,

1
Il caricamento al quadrato è la quota della varianza della variabile rappresentata dal componente.
ttnphns,

4

La mia comprensione è che si possono fare biplot di analisi lineari discriminanti, è infatti implementato nei pacchetti R ggbiplot e ggord e un'altra funzione per farlo è pubblicata in questo thread StackOverflow .

Anche il libro "Biplot in pratica" di M. Greenacre contiene un capitolo (capitolo 11, vedi pdf ) e nella Figura 11.5 mostra un biplot di un'analisi discriminante lineare del set di dati dell'iride: inserisci qui la descrizione dell'immagine


In realtà, l'intero libro è disponibile gratuitamente online (un pdf per capitolo) qui multivariatestatistics.org/biplots.html .
amoeba,

Ah, nemmeno i siti Web pericolosi sono necessari, grazie per quello!
Tom Wenseleers il

2

So che è stato chiesto più di un anno fa e ttnphns ha dato una risposta eccellente e approfondita, ma ho pensato di aggiungere un paio di commenti per quelli (come me) che sono interessati a PCA e LDA per la loro utilità in ecologia scienze, ma hanno un background statistico limitato (non statistici).

I PC in PCA sono combinazioni lineari di variabili originali che spiegano in modo massimo sequenziale la varianza totale nel set di dati multidimensionale. Avrai tanti PC quante variabili originali. La percentuale di varianza spiegata dai PC è data dagli autovalori della matrice di somiglianza utilizzata e il coefficiente per ciascuna variabile originale su ciascun nuovo PC è dato dagli autovettori. PCA non ha ipotesi sui gruppi. PCA è ottimo per vedere come più variabili cambiano di valore tra i tuoi dati (ad esempio in un biplot). L'interpretazione di un PCA si basa fortemente sul biplot.

LDA è diverso per un motivo molto importante: crea nuove variabili (LD) massimizzando la varianza tra i gruppi. Queste sono ancora combinazioni lineari di variabili originali, ma piuttosto che spiegare quanta più varianza possibile con ogni LD sequenziale, sono invece disegnate per massimizzare la DIFFERENZA tra i gruppi lungo quella nuova variabile. Piuttosto che una matrice di somiglianza, LDA (e MANOVA) usano una matrice di confronto tra e all'interno dei gruppi somma di quadrati e prodotti incrociati. Gli autovettori di questa matrice - i coefficienti di cui si occupava originariamente l'OP - descrivono quanto le variabili originali contribuiscono alla formazione dei nuovi LD.

Per questi motivi, gli autovettori del PCA ti daranno un'idea migliore di come una variabile cambia valore nel tuo cloud di dati e di quanto sia importante la varianza totale nel tuo set di dati rispetto all'LDA. Tuttavia, l'ADL, in particolare in combinazione con un MANOVA, ti fornirà un test statistico della differenza nei centroidi multivariati dei tuoi gruppi e una stima dell'errore nell'assegnazione dei punti ai rispettivi gruppi (in un certo senso, dimensione dell'effetto multivariato). In un LDA, anche se una variabile cambia linearmente (e significativamente) tra i gruppi, il suo coefficiente su un LD potrebbe non indicare la "scala" di tale effetto e dipende interamente dalle altre variabili incluse nell'analisi.

Spero fosse chiaro. Grazie per il tuo tempo. Vedi un'immagine sotto ...

PC e LD sono costruiti in modo diverso e i coefficienti per un LD potrebbero non darti un'idea di come le variabili originali variano nel tuo set di dati


Tutto questo è corretto, e +1 da parte mia, ma non sono sicuro di come la tua risposta affronti la domanda originale, che era molto specifica su come disegnare un biplot LDA.
amoeba,

Suppongo che tu abbia ragione - stavo rispondendo a questo, principalmente "Usando un biplot di valori ottenuti attraverso l'analisi dei componenti principali, è possibile esplorare le variabili esplicative che compongono ciascun componente principale. Ciò è possibile anche con l'analisi discriminante lineare? " - e la risposta è sì, ma il significato è molto diverso, come descritto sopra ... Grazie per il commento e +1!
danno
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.