Il caricamento nell'analisi fattoriale o in PCA ( vedi 1 , vedi 2 , vedi 3 ) è il coefficiente di regressione, peso in una combinazione lineare che prevede variabili (articoli) per fattori / componenti standardizzati (varianza unitaria).
Motivi per un caricamento superiore a :1
Motivo 1: matrice di covarianza analizzata.
Se analizzate erano variabili standardizzate, ovvero l'analisi si basava sulla matrice di correlazione , quindi dopo l'estrazione o dopo la rotazione ortogonale (come varimax) - quando fattori / componenti rimangono non correlati - anche i carichi sono i coefficienti di correlazione. Questa è la proprietà dell'equazione di regressione lineare: con i predittori standardizzati ortogonali, i parametri eguagliano le correlazioni di Pearson. Quindi, in tal caso il caricamento non può essere oltre [-1, 1].
Ma se le analisi fossero solo variabili centrate, ovvero l'analisi si basasse sulla matrice di covarianza , i carichi non devono essere limitati a [-1, 1] perché i coefficienti di regressione non devono essere uguali ai coefficienti di correlazione. In realtà sono covarianze. Si noti che erano caricamenti grezzi. Esistono caricamenti "riscalati" o "standardizzati" (descritti nei collegamenti che ho dato nel primo paragrafo) che sono riscalati per non lasciare la banda [-1, 1].
Motivo 2: rotazione obliqua. Dopo la rotazione obliqua come promax o oblimin abbiamo due tipi di carichi: matrice del modello (coefficienti di regressione o carichi di per sé) e matrice della struttura (coefficienti di correlazione). Non sono uguali tra loro a causa del motivo sopra indicato: i coefficienti di regressione dei predittori correlati sono diversi dalle correlazioni di Pearson. Pertanto, un caricamento di pattern può facilmente andare oltre [-1, 1]. Si noti che è vero anche quando la matrice di correlazione era la matrice analizzata. Quindi, è così che quando fattori / componenti sono obliqui.
Motivo 3 (raro): custodia Heywood. Il caso di Heywood ( pt 6 ) è una difficoltà negli algoritmi di analisi fattoriale quando su iterazioni il caricamento supera la magnitudo teoricamente consentita - si verifica quando la comunità supera la varianza. Il caso Heywood è una situazione rara e si riscontra in alcuni set di dati in genere quando ci sono troppe poche variabili per supportare il numero richiesto di fattori. I programmi informano che c'è un errore nel caso Heywood e si fermano o cercano di risolverlo.