La PCA è seguita da una rotazione (come varimax) è ancora PCA?


63

Ho provato a riprodurre alcune ricerche (usando PCA) da SPSS in R. Nella mia esperienza, la principal() funzione dal pacchetto è psychstata l'unica funzione che si è avvicinata (o se la mia memoria mi serve bene, esaurita) per abbinare l'output. Per abbinare gli stessi risultati di SPSS, ho dovuto usare il parametro principal(..., rotate = "varimax"). Ho visto articoli che parlano di come hanno fatto PCA, ma sulla base dell'output di SPSS e dell'uso della rotazione, sembra più un'analisi fattoriale.

Domanda: PCA, anche dopo la rotazione (utilizzo varimax), è ancora PCA? Avevo l'impressione che questo potesse essere in effetti un'analisi fattoriale ... Nel caso non lo fosse, quali dettagli mi mancano?


4
Tecnicamente, qualunque cosa tu abbia dopo la rotazione non sono più i componenti principali .
Gala,

2
La rotazione stessa non la modifica. Ruotata o no, l'analisi è quella che è. PCA non è AF nella definizione ristretta di "analisi fattoriale" e PCA è FA in una definizione più ampia di "analisi fattoriale". stats.stackexchange.com/a/94104/3277
ttnphns

1
Ciao @Roman! Ho rivisto questo vecchio thread e sono sorpreso che tu abbia contrassegnato la risposta di Brett come accettata. Stavi chiedendo se la rotazione PCA + è ancora PCA o è FA; La risposta di Brett non dice una sola parola sulle rotazioni! Né menziona la principalfunzione di cui hai chiesto. Se la sua risposta ha effettivamente risposto alla tua domanda, allora forse la tua domanda non è adeguatamente formulata; prenderesti in considerazione la modifica? Altrimenti, trovo che la risposta del dottorato sia molto più vicina alla risposta effettiva alla tua domanda. Tieni presente che puoi modificare la risposta accettata in qualsiasi momento.
ameba dice di reintegrare Monica l'

1
Dovrei aggiungere che sto lavorando a una nuova, più dettagliata, risposta alla tua domanda, quindi sono curioso di sapere se in realtà sei ancora interessato a questo argomento. Dopo tutto, sono passati quattro e sono passati anni ...
ameba dice Reinstate Monica l'

3
@amoeba purtroppo in futuro non posso rispondere al motivo per cui ho accettato quella risposta. Rivedendo la vecchia bestia 4,5 anni dopo, mi sono reso conto che nessuna delle risposte si avvicinava. mbq inizia in modo promettente ma manca di una spiegazione. Ma non importa, l'argomento è molto confuso, probabilmente grazie a una terminologia errata nel popolare software statistico per le scienze sociali che non nominerò con un'abbreviazione di quattro lettere. Invia una risposta e inviami un ping, lo accetterò se lo trovo più vicino alla mia risposta alla mia domanda.
Roman Luštrik,

Risposte:


53

Questa domanda riguarda in gran parte le definizioni di PCA / FA, quindi le opinioni potrebbero essere diverse. La mia opinione è che PCA + varimax non dovrebbe essere chiamato PCA o FA, ma piuttosto esplicitamente definito ad esempio come "PCA ruotato da varimax".

Dovrei aggiungere che questo è un argomento piuttosto confuso. In questa risposta voglio spiegare quello che una rotazione in realtà è ; questo richiederà un po 'di matematica. Un lettore casuale può saltare direttamente all'illustrazione. Solo così possiamo discutere se la rotazione di PCA + dovrebbe o non debba essere chiamata "PCA".

Un riferimento è il libro di Jolliffe "Analisi dei componenti principali", sezione 11.1 "Rotazione dei componenti principali", ma trovo che potrebbe essere più chiaro.


Sia una matrice di dati che supponiamo sia centrata. PCA ammonta ( vedi la mia risposta qui ) a una decomposizione di valore singolare: . Esistono due viste equivalenti ma complementari su questa scomposizione: una vista "proiezione" più in stile PCA e una vista "variabili latenti" più stile FA. n × p X = U S VXn×pX=USV

Secondo la vista in stile PCA, abbiamo trovato un gruppo di direzioni ortogonali (si tratta di autovettori della matrice di covarianza, chiamate anche "direzioni principali" o "assi") e "componenti principali" ( chiamati anche "punteggi" del componente principale) sono le proiezioni dei dati in queste direzioni. I componenti principali non sono correlati, il primo ha la varianza massima possibile, ecc. Possiamo scrivere:U S X = U SV = Punteggi Direzioni principali .VUS

X=USV=ScoresPrincipal directions.

Secondo la visione in stile FA, abbiamo trovato alcuni "fattori latenti" di varianza unitaria non correlata che danno origine alle variabili osservate tramite "caricamenti". Infatti, sono componenti principali standardizzati (non correlati e con varianza dell'unità) e se definiamo i carichi come , quindi (Nota che .) Entrambe le viste sono equivalenti. Si noti che i caricamenti sono autovettori ridimensionati in base ai rispettivi autovalori ( sono autovalori della matrice di covarianza).U~=n1UL=VS/n1

X=n1U(VS/n1)=U~L=Standardized scoresLoadings.
S=SS/n1

(Dovrei aggiungere tra parentesi che PCA FA ; FA mira esplicitamente a trovare fattori latenti che sono mappati linearmente alle variabili osservate tramite caricamenti; è più flessibile di PCA e produce caricamenti diversi. Ecco perché preferisco chiamare quanto sopra "Vista in stile FA su PCA" e non FA, anche se alcune persone lo considerano uno dei metodi FA.)

Ora, cosa fa una rotazione? Ad esempio una rotazione ortogonale, come varimax. Innanzitutto, considera solo i componenti , ovvero:Quindi prende una quadrata ortogonale matrice e inserisce in questa scomposizione: dove i caricamenti ruotati sono dati dak<p

XUkSkVk=U~kLk.
k×kTTT=I
XUkSkVk=UkTTSkVk=U~rotLrot,
˜ U r o t = ˜ U k T T L r o tLrot=LkTE ruotato punteggi standardizzati sono date da . (Lo scopo di questo è di trovare tale che diventato il più vicino possibile ad essere rado, per facilitarne l'interpretazione.)U~rot=U~kTTLrot

Si noti che ciò che viene ruotato sono: (1) punteggi standardizzati, (2) caricamenti. Ma non i punteggi grezzi e non le direzioni principali! Quindi la rotazione avviene nello spazio latente , non nello spazio originale. Questo è assolutamente cruciale.

Dal punto di vista in stile FA, non è successo molto. (A) I fattori latenti sono ancora non correlati e standardizzati. (B) Sono ancora mappati alle variabili osservate tramite caricamenti (ruotati). (C) La quantità di varianza catturata da ciascun componente / fattore è data dalla somma dei valori al quadrato della colonna dei carichi corrispondenti in . (D) Dal punto di vista geometrico, i caricamenti si estendono ancora nello stesso sottospazio -dimensionale in (il sottospazio espanso dai primi autovettori PCA). (E) L'approssimazione a e l'errore di ricostruzione non sono cambiati affatto. (F) La matrice di covarianza è ancora approssimata ugualmente bene: k R p k XLrotkRpkX

ΣLkLk=LrotLrot.

Ma il punto di vista in stile PCA è praticamente crollato. I caricamenti ruotati non corrispondono più alle direzioni / assi ortogonali in , ovvero le colonne di non sono ortogonali! Peggio ancora, se si proiettano [ortogonalmente] i dati sulle direzioni fornite dai carichi ruotati, si otterranno proiezioni correlate (!) E non sarà possibile recuperare i punteggi. [Invece, per calcolare i punteggi standardizzati dopo la rotazione, è necessario moltiplicare la matrice di dati con la pseudo-inversa di . In alternativa, si può semplicemente ruotare i punteggi standardizzati originali con la matrice di rotazione:RpLrotU~rot=X(Lrot+)U~rot=U~T ] Inoltre, i componenti ruotati non catturano successivamente la massima quantità di varianza: la varianza viene ridistribuita tra i componenti (anche sebbene tutti i componenti ruotati catturino esattamente la stessa varianza di tutti i componenti principali originali).kk

Ecco un'illustrazione. I dati sono un'ellisse 2D allungata lungo la diagonale principale. La prima direzione principale è la diagonale principale, la seconda è ortogonale ad essa. I vettori di carico della PCA (autovettori scalati in base agli autovalori) sono mostrati in rosso - puntando in entrambe le direzioni e allungati anche da un fattore costante per la visibilità. Quindi ho applicato una rotazione ortogonale di ai caricamenti. I vettori di caricamento risultanti sono visualizzati in magenta. Nota come non sono ortogonali (!).30

Rotazione PCA

Un'intuizione in stile FA qui è la seguente: immagina uno "spazio latente" in cui i punti riempiono un piccolo cerchio (provengono da un gaussiano 2D con varianze di unità). Questa distribuzione di punti viene quindi allungata lungo i caricamenti di PCA (rosso) per diventare l'ellisse di dati che vediamo in questa figura. Tuttavia, la stessa distribuzione di punti può essere ruotata e quindi allungata lungo i caricamenti di PCA ruotati (magenta) per diventare la stessa ellisse di dati .

[Per vedere effettivamente che una rotazione ortogonale dei carichi è una rotazione , è necessario guardare un biplot PCA; i vettori / raggi corrispondenti alle variabili originali ruoteranno semplicemente.]


Riassumiamo. Dopo una rotazione ortogonale (come varimax), gli assi "principali ruotati" non sono ortogonali e le proiezioni ortogonali su di essi non hanno senso. Quindi si dovrebbe piuttosto abbandonare questo intero punto di vista assi / proiezioni. Sarebbe strano chiamarlo ancora PCA (che riguarda le proiezioni con la varianza massima ecc.).

Dal punto di vista in stile FA, abbiamo semplicemente ruotato i nostri fattori latenti (standardizzati e non correlati), che è un'operazione valida. Non ci sono "proiezioni" in FA; invece, i fattori latenti generano le variabili osservate tramite caricamenti. Questa logica è ancora preservata. Tuttavia, abbiamo iniziato con i componenti principali, che in realtà non sono fattori (in quanto PCA non è lo stesso di FA). Quindi sarebbe strano chiamarlo anche FA.

Invece di discutere se uno "dovrebbe" piuttosto chiamarlo PCA o FA, suggerirei di essere meticoloso nello specificare l'esatta procedura utilizzata: "PCA seguito da una rotazione varimax".


Postscriptum. Si è possibile considerare una procedura rotazione alternativa, dove viene inserito tra e . Ciò ruoterebbe punteggi grezzi ed autovettori (anziché punteggi e caricamenti standardizzati). Il problema più grande con questo approccio è che dopo una tale "rotazione", i punteggi non saranno più non correlati, il che è abbastanza fatale per la PCA. Uno può farlo, ma non è come le rotazioni vengono generalmente comprese e applicate.TTUSV


Non ho compreso appieno il testo che circonda l'immagine. Si utilizzano più volte i "caricamenti": PCA loading vectors... are shown in red, stretched along the rotated PCA loadings (magenta). Mi chiedo come "carichi" o il loro "vettore" possano essere mostrati come assi sul grafico a dispersione di dati. Puoi, per favore, renderlo più chiaro? E l'idea di "allungare"? Grazie.
ttnphns,

1
Ciò potrebbe essere correlato alla lunga discussione che abbiamo recentemente avuto sui caricamenti "che coprono un sottospazio" nello spazio variabile o meno. In questa risposta ho usato "caricamento vettoriale" (o semplicemente "caricamento") per fare riferimento a una colonna della matrice di caricamento. Nel mio esempio i dati sono 2D, cioè ci sono due variabili e quindi i caricamenti sono vettori 2D. Quindi posso tracciarli sul grafico a dispersione di dati (li ho ridimensionati di un fattore costante per la visibilità). Nella PCA, i carichi ovviamente sono ortogonali (sono proporzionali agli autovettori). Dopo varimax, non lo sono più.
ameba dice di reintegrare Monica il

Il paragrafo sullo "stretching" (subito dopo l'immagine) dovrei probabilmente illustrare meglio; Vedo che non è molto chiaro.
ameba dice di reintegrare Monica il

Ho pensato che se miri a tracciare l'ortogonalità o la non ortogonalità di alcuni vettori (come i caricamenti), dovresti disegnarli come frecce. O forse non ti capisco?
ttnphns,

1
Concordo sul fatto che usare le frecce sarebbe meglio, ho omesso solo le "punte di freccia" per tracciare la praticità. Potrei ripetere questa cifra per aggiungerli. Inoltre, ho disegnato ogni vettore puntando in entrambe le direzioni perché i loro segni non contano.
ameba dice di reintegrare Monica il

29

Principal Components Analysis (PCA) e Common Factor Analysis (CFA) sono metodi distinti. Spesso producono risultati simili e PCA viene utilizzato come metodo di estrazione predefinito nelle routine di analisi del fattore SPSS. Ciò indubbiamente provoca molta confusione sulla distinzione tra i due.

La linea di fondo è, questi sono due diversi modelli, concettualmente. In PCA, i componenti sono effettive combinazioni lineari ortogonali che massimizzano la varianza totale. In FA, i fattori sono combinazioni lineari che massimizzano la parte condivisa della varianza - sottostanti "costrutti latenti". Ecco perché la FA viene spesso chiamata "analisi dei fattori comuni". FA utilizza una varietà di routine di ottimizzazione e il risultato, a differenza di PCA, dipende dalla routine di ottimizzazione utilizzata e dai punti di partenza per tali routine. Semplicemente non esiste un'unica soluzione unica.

In R, la funzione factanal () fornisce a CFA un'estrazione di massima verosimiglianza. Quindi, non dovresti aspettarti che riproduca un risultato SPSS basato su un'estrazione di PCA. Semplicemente non è lo stesso modello o logica. Non sono sicuro che otterresti lo stesso risultato se utilizzassi l'estrazione di Probabilità massima di SPSS in quanto potrebbero non utilizzare lo stesso algoritmo.

Nel bene o nel male in R, è possibile, tuttavia, riprodurre "l'analisi fattoriale" confusa fornita da SPSS come impostazione predefinita. Ecco il processo in R. Con questo codice, sono in grado di riprodurre il risultato "Analisi fattoriale" del componente principale SPSS usando questo set di dati. (Ad eccezione del segno, che è indeterminato). Tale risultato potrebbe anche essere ruotato utilizzando uno dei metodi di rotazione R disponibili.

# Load the base dataset attitude to work with.
data(attitude)
# Compute eigenvalues and eigen vectors of the correlation matrix.
pfa.eigen<-eigen(cor(attitude))
# Print and note that eigen values are those produced by SPSS.
# Also note that SPSS will extract 2 components as eigen values > 1 = 2
pfa.eigen$values
# set a value for the number of factors (for clarity)
factors<-2
# Extract and transform two components.
pfa.eigen$vectors [ , 1:factors ]  %*% 
+ diag ( sqrt (pfa.eigen$values [ 1:factors ] ),factors,factors )

+1 per aiutare davvero a smorzare la confusione attorno a SPSS vs R qui. Rimangono due domande: cosa R prcompo princompcosa fa rispetto all'approccio confuso di SPSS? Cosa sta facendo SPSS per estrazione?
hans0l0

ah, e posso aggiungere come calcolare i punteggi per es. PC1 alla tua soluzione: standardizzare zz <- scale(attitude,T,T)e pc1 <- zz %*% solve(cor(attitude),lamba[,1]). Dove lambda è il risultato dell'ultima riga dell'esempio di @Brett Magills.
hans0l0

3
-1. Anche se ci sono molte informazioni utili in questa risposta, trovo che non risponda affatto alla domanda originale. La domanda originale era se la rotazione PCA + può ancora essere considerata PCA (o meglio FA). La tua risposta non menziona nemmeno le rotazioni! Quindi come può essere una risposta?
ameba dice di reintegrare Monica l'

1
Potrebbe essere utile notare che l'analisi dei fattori comuni non è la stessa dell'analisi dei fattori di conferma (anche CFA), che è una procedura completamente diversa.
Richard Border,

11

Questa risposta è quella di presentare, in forma di diagramma di percorso, cose su cui @amoeba ha ragionato nella sua risposta profonda (ma leggermente complicata) su questo thread (sono una specie di accordo con il 95%) e come mi appaiono .

La PCA nella sua forma corretta e minima è la rotazione ortogonale specifica dei dati correlati alla sua forma non correlata, con i componenti principali che scorrono sequenzialmente sempre meno della variabilità complessiva. Se la riduzione della dimensionalità è tutto ciò che desideriamo, di solito non calcoliamo i caricamenti e qualsiasi cosa trascinino dopo di essi. Siamo soddisfatti dei (prime) principali punteggi delle componenti . [Nota che le annotazioni sul grafico non seguono esattamente quelle di @ amoeba, - mi attengo a ciò che adotto in alcune delle mie altre risposte.]P

Sul grafico, prendo un semplice esempio di due variabili p=2e utilizzo entrambi i componenti principali estratti. Sebbene di solito conserviamo solo alcuni dei primi m<pcomponenti, per la domanda teorica che stiamo prendendo in considerazione ("Il PCA con rotazione è un PCA o cosa?") Non fa differenza se mantenerli mo tutti p; almeno nella mia risposta particolare.

Il trucco dei caricamenti è di estrarre la scala (magnitudine, variabilità, inerzia ) dai componenti (punteggi grezzi) e sui coefficienti (autovettori) lasciando il primo a essere nudo "quadro" (pr standardizzato punteggi dei componenti) e questi ultimi devono essere carnosi (caricamenti). I dati vengono ripristinati ugualmente bene con entrambi: . Ma i caricamenti aprono prospettive: (i) interpretare i componenti; (ii) essere ruotato; (iii) ripristinare correlazioni / covarianze delle variabili. Tutto ciò è dovuto al fatto che la variabilità dei dati è stata scritta nei caricamenti, come il loro carico.LVPzAX=PV=PzA

E possono restituire quel carico ai punti dati in qualsiasi momento, ora o dopo la rotazione . Se concepiamo una rotazione ortogonale come varimax, ciò significa che vogliamo che i componenti rimangano non correlati dopo la rotazione effettuata. Solo i dati con matrice di covarianza sferica, se ruotati ortogonalmente, preservano la non correlazione. E voilà, i principali componenti standardizzati (che spesso nell'apprendimento automatico sono chiamati "dati sbiancati PCA") sono dati magici ( sono in realtà proporzionali a sinistra, cioè gli autovettori di riga dei dati). Mentre siamo alla ricerca della matrice di rotazione varimaxPzPzQper facilitare l'interpretazione dei caricamenti che i punti dati attendono passivamente nella loro casta sfericità e identità (o "bianchezza").

Dopo che è stato trovato , la rotazione di da essa equivale al calcolo normale dei punteggi dei componenti principali standardizzati tramite l'inverso generalizzato della matrice di caricamento, - questa volta, dei carichi ruotati , (vedere la tabella ). I componenti principali risultanti ruotati in varimax, non sono correlati, come lo volevamo, inoltre i dati vengono ripristinati da loro esattamente come prima della rotazione: . Possiamo quindi dare loro indietro la loro scala depositato (e di conseguenza ruotato) in - a unstandardize loro: .QPzArCzX=PzA=CzArArC

Dobbiamo essere consapevoli del fatto che i "componenti principali ruotati in varimax" non sono più i componenti principali : ho usato la notazione Cz, C, anziché Pz, P, per sottolinearlo. Sono solo "componenti". I componenti principali sono unici, ma i componenti possono essere molti. Rotazioni diversi varimax produrranno altre nuove variabili chiamati anche componenti e anche non correlate, oltre i nostri quelli.C

Inoltre, i componenti principali ruotati in varimax (o altrimenti ruotati ortogonalmente) (ora solo "componenti"), mentre rimangono non correlati, ortogonali, non implicano che i loro carichi siano ancora ortogonali. Le colonne di sono reciprocamente ortogonali (come lo erano gli autovettori ), ma non le colonne di (vedere anche la nota in calce qui ).AVAr

E infine: ruotare i componenti principali grezzi con la nostra non è un'azione utile. Otterremo alcune variabili correlate con significato problematico. sembrava ottimizzare (in qualche modo specifico) la configurazione dei carichi che avevano assorbito tutta la scala in essi . non è mai stato addestrato a ruotare i punti dati con tutta la scala rimasta su di essi. Il rotante con sarà equivalente agli autovettori rotanti con (inPQ"C"QQPQ VQVr) e quindi calcolare i punteggi dei componenti grezzi come . Questi "percorsi" annotati da @amoeba nel loro Postscriptum."C"=XVr

Queste ultime azioni delineate (inutili per la maggior parte) ci ricordano che gli autovettori, non solo i carichi, potrebbero essere ruotati, in generale. Ad esempio, la procedura varimax potrebbe essere applicata a loro per semplificarne la struttura. Ma poiché gli autovettori non sono così utili nell'interpretazione del significato dei componenti come lo sono i carichi, la rotazione degli autovettori è raramente eseguita.

inserisci qui la descrizione dell'immagine

Quindi, PCA con successiva varimax (o altra) rotazione è

  • ancora PCA
  • che sulla strada ha abbandonato i componenti principali solo per i componenti
  • potenzialmente più interpretabili (rispetto ai PC) come "tratti latenti"
  • ma non sono stati modellati satisticamente come quelli (la PCA non è un'analisi dei fattori equa)

Non ho fatto riferimento all'analisi fattoriale in questa risposta. Mi sembra che l'uso di @ amoeba della parola "spazio latente" sia un po 'rischioso nel contesto della domanda posta. Concordo, tuttavia, sul fatto che la rotazione analitica di PCA + potrebbe essere chiamata " visualizzazione in stile FA su PCA".


Come calcolare gli autovalori dei componenti ruotati?

1
@Haga, I componenti ruotati non sono più i componenti principali e quindi non possono avere autovalori. Le loro variazioni sono tuttavia uguali alle somme delle colonne dei caricamenti quadrati (si prega di vedere la parte inferiore del mio grafico - freccia per punteggi non standardizzati).
ttnphns,

8

In psych::principal()si possono fare diversi tipi di rotazioni / trasformazioni al componente estratto Principal (s) o '' PC '' utilizzando rotate=l'argomento, come: "none", "varimax"(Default), "quatimax", "promax", "oblimin", "simplimax", e "cluster". Devi decidere empiricamente quale dovrebbe avere senso nel tuo caso, se necessario, a seconda della tua valutazione e conoscenza dell'argomento in esame. Una domanda chiave che potrebbe darti un suggerimento: quale è più interpretabile (di nuovo se necessario)?

Nella guida potresti trovare utile anche quanto segue:

È importante riconoscere che i componenti principali ruotati non sono componenti principali (gli assi associati alla decomposizione del valore di autigene) ma sono semplicemente componenti. A tale scopo, i componenti principali non ruotati sono etichettati come PCi, mentre i PC ruotati sono ora etichettati come RCi (per componenti ruotati) e componenti trasformati obliquamente come TCi (per componenti trasformati). (Grazie a Ulrike Gromping per questo suggerimento.)


7

La mia comprensione è che la distinzione tra PCA e analisi fattoriale è principalmente se esiste un termine di errore. Pertanto, l'APC può e fedelmente rappresentare i dati, mentre l'analisi dei fattori è meno fedele ai dati su cui è stata addestrata, ma tenta di rappresentare le tendenze o la comunanza sottostanti nei dati. Con un approccio standard il PCA non viene ruotato, ma è matematicamente possibile farlo, quindi le persone lo fanno di volta in volta. Sono d'accordo con i commentatori sul fatto che il "significato" di questi metodi è in qualche modo in palio e che probabilmente è saggio essere sicuri che la funzione che stai usando fa quello che intendi - per esempio, mentre noti che R ha alcune funzioni che eseguono un diverso tipo di PCA rispetto agli utenti di SPSS.


2

Grazie al caos nelle definizioni di entrambi sono effettivamente sinonimi. Non credere alle parole e guarda in profondità nei dock per trovare le equazioni.


3
Faccio ancora fatica a capire le equazioni (biologo ahoy), motivo per cui mi sono rivolto alla comunità qui, sperando che mi aiuti a spiegare la differenza nei termini del profano.
Roman Luštrik,

Penso che l'ideologia sia che la FA presume che il processo sia guidato da alcuni "fattori nascosti", mentre i dati che abbiamo sono costituiti da alcune combinazioni di essi. Per questo motivo, il problema di FA è quello di ricostruire i fattori nascosti in qualche modo. E c'è PCA - un metodo che costruisce in modo iterativo nuove variabili (PC) mescolando quelle vecchie in modo da assorbire avidamente la varianza dei dati. Si potrebbe dire che i PC sono uguali ai fattori della FA, e qui saranno indistinguibili. Ma si potrebbe anche apportare alcune modifiche al PCA per renderlo una base di qualche altro 'ordinamento FA', e quindi il problema inizia.

Quindi, fondamentalmente, dovresti pensare a cosa vuoi fare (non a quale parola d'ordine vuoi usare). So che è difficile, soprattutto mentre ho dei biologi in giro (in qualche modo l'uso della parola d'ordine funziona bene in biologia, quindi presumono che questo sia comune ad altre discipline); tuttavia questo è il modo in cui la scienza dovrebbe essere fatta. Quindi usa Google (o questo sito) per valutare il buon algoritmo. Infine, usa i dock per trovare una funzione / pulsante che lo fa e digita / fai clic su di esso.

1

Sebbene questa domanda abbia già una risposta accettata, vorrei aggiungere qualcosa al punto della domanda.

"PCA" - se ricordo bene - significa "analisi dei componenti principali"; quindi fintanto che stai analizzando i componenti principali, sia esso senza rotazione o con rotazione, siamo ancora nell'analisi dei "componenti principali" (che sono stati trovati dall'appropriata decomposizione matrice iniziale).

Formulerei che dopo la "varimax" -rotazione sui primi due componenti principali, che abbiamo la "soluzione varimax dei due primi pc" (o qualcos'altro), ma sono ancora nel quadro dell'analisi dei componenti principali, o più breve, sono nel quadro di "pca".

Per chiarire ulteriormente il mio punto di vista: non credo che la semplice domanda di rotazione introduca il problema della distinzione tra EFA e CFA (quest'ultimo menzionato / introdotto nel problema, ad esempio nella risposta di Brett)


Perché hai citato improvvisamente CFA nell'ultima frase?
ameba dice Ripristina Monica il

@amoeba: mi è stato indicato quel termine dalla risposta premiata con 23 punti di _Brett e ho ritenuto che valesse la pena di commentare qualcosa al riguardo. Ma forse sarebbe meglio dire "FA" invece. Ci penserò ... (Ripensandoci, ricordo vagamente di aver visto "CFA" come "analisi del fattore di conferma" anziché "comune ..." nei miei studi precedenti su quel metodo, probabilmente negli anni '80 o 90'ies)
Gottfried Helms

È solo che i primi tre paragrafi della tua risposta riguardano PCA vs FA, e poi l'ultimo paragrafo che sembra sintetizzare i precedenti, riguarda improvvisamente EFA vs CFA.
ameba dice Reinstate Monica il

@amoeba: la mia ultima modifica rende più chiare la mia intenzione / frase?
Gottfried Helms

1

Ho trovato questo il più utile: Abdi & Williams, 2010, Analisi dei componenti principali .

ROTAZIONE

Dopo che il numero di componenti è stato determinato e per facilitare l'interpretazione, l'analisi spesso comporta una rotazione dei componenti che sono stati mantenuti [vedere, ad esempio, Rif 40 e 67, per maggiori dettagli]. Vengono utilizzati due tipi principali di rotazione: ortogonale quando anche i nuovi assi sono ortogonali tra loro, e obliqua quando i nuovi assi non devono essere ortogonali. Poiché le rotazioni vengono sempre eseguite in un sottospazio, i nuovi assi spiegheranno sempre meno inerzia rispetto ai componenti originali (che sono calcolati per essere ottimali). Tuttavia, la parte dell'inerzia spiegata dal sottospazio totale dopo la rotazione è la stessa di prima della rotazione (è cambiata solo la partizione dell'inerzia). È anche importante notare che poiché la rotazione ha sempre luogo in un sottospazio (ad es. lo spazio dei componenti mantenuti), la scelta di questo sottospazio influenza fortemente il risultato della rotazione. Pertanto, si raccomanda vivamente di provare diverse dimensioni per il sottospazio dei componenti trattenuti al fine di valutare la robustezza dell'interpretazione della rotazione. Quando si esegue una rotazione, il termine caricamenti si riferisce quasi sempre agli elementi della matrice Q.

(vedi documento per la definizione di Q).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.