Qual è la relazione tra misure di affidabilità della scala (alfa di Cronbach ecc.) E caricamenti di componenti / fattori?


9

Diciamo che ho un set di dati con punteggi su una serie di elementi del questionario, che sono teoricamente composti da un numero minore di scale, come nella ricerca psicologica.

So che un approccio comune qui è verificare l'affidabilità delle scale usando l'alfa di Cronbach o qualcosa di simile, quindi aggregare gli elementi nelle scale per formare punteggi di scala e continuare l'analisi da lì.

Ma c'è anche l'analisi dei fattori, che può prendere tutti i punteggi dei tuoi articoli come input e dirti quali di essi formano fattori coerenti. Puoi capire quanto sono forti questi fattori osservando i caricamenti e le comunità, e così via. Per me questo sembra lo stesso tipo di cose, solo molto più in profondità.

Anche se tutte le affidabilità della bilancia sono buone, un EFA potrebbe correggerti su quali elementi si adattano meglio a quali scale, giusto? Probabilmente otterrai crossloading e potrebbe avere più senso usare punteggi di fattori derivati ​​rispetto a semplici somme di scala.

Se voglio usare queste bilance per qualche analisi successiva (come la regressione o ANOVA), dovrei semplicemente aggregare le scale finché la loro affidabilità regge? O è qualcosa come CFA (test per vedere se le scale reggono come buoni fattori, che sembra misurare la stessa cosa di "affidabilità").

Mi hanno insegnato entrambi gli approcci in modo indipendente e quindi non so davvero come si relazionano, se possono essere usati insieme o quale ha più senso per quale contesto. Esiste un albero decisionale per le buone pratiche di ricerca in questo caso? Qualcosa di simile a:

  • Esegui CFA in base agli elementi di scala previsti

    • Se CFA mostra un buon adattamento, calcola i punteggi dei fattori e usali per l'analisi.
    • Se CFA mostra una scarsa vestibilità, esegui invece EFA e adotta un approccio esplorativo (o qualcosa del genere).

L'analisi fattoriale e i test di affidabilità sono effettivamente approcci separati alla stessa cosa o sto incomprendo da qualche parte?


4
Non posso dire dal tuo secondo paragrafo, ma vale la pena notare che l'alfa di Cronbach non ha senso se c'è un fattore> 1.
gung - Ripristina Monica

1
L'alfa di Cronbach è direttamente correlata alla correlazione media tra gli elementi della scala. È una delle misure di omogeneità articolo-articolo. L'omogeneità è uno degli aspetti dell'affidabilità. Il caricamento dei fattori è la correlazione tra un elemento e il criterio "esterno", il costrutto: anche se il fattore è stato creato come basato su elementi, è visto come variabile esterna. Un caricamento riguarda quindi la validità, non l'affidabilità.
ttnphns,

1
(Cont.) Non bisogna confondere i due. Validità e affidabilità sono in parte concetti / entità indipendenti, in parte concorrenti, ma non sono la stessa cosa.
ttnphns,

stats.stackexchange.com/q/287494/3277 è una domanda simile, ha risposto.
ttnphns,

Risposte:


1

Ho intenzione di aggiungere una risposta qui anche se la domanda è stata posta un anno fa. La maggior parte delle persone interessate all'errore di misurazione ti dirà che utilizzare i punteggi dei fattori di un CFA non è il modo migliore per andare avanti. Fare un CFA è buono. Stimare i punteggi dei fattori è ok fintanto che si corregge la quantità di errore di misurazione associata a tali punteggi dei fattori nelle analisi successive (un programma SEM è il posto migliore per farlo).

Per ottenere l'affidabilità del punteggio del fattore, devi prima calcolare l'affidabilità del costrutto latente dal tuo CFA (o rho):

rho =  Factor score variance/(Factor score variance + Factor score standard
error^2). 

Si noti che l'errore standard del punteggio del fattore ^ 2 è la varianza dell'errore del punteggio del fattore. Queste informazioni possono essere ottenute in MPlus richiedendo l'output PLOT3 come parte del programma CFA.

Per calcolare l'affidabilità complessiva del punteggio del fattore, utilizzare la seguente formula:

(1-rho)*(FS variance+FS error variance).

Il valore risultante è la varianza dell'errore del punteggio del fattore. Se si utilizza MPlus per le analisi successive, si crea una variabile latente definita da un singolo elemento (il punteggio fattore) e quindi si specifica l'affidabilità del punteggio fattore:

LatentF BY FScore@1;
FScore@(calculated reliability value of factor score) 

Spero sia utile! Una grande risorsa per questo problema sono gli appunti delle lezioni (lezione 11, in particolare) della lezione SEM di Lesa Hoffman all'Università del Nebraska, Lincoln. http://www.lesahoffman.com/948/


using factor scores from a CFA is not the best wayIntendevi EFA?
ttnphns,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.