Diciamo che ho un set di dati con punteggi su una serie di elementi del questionario, che sono teoricamente composti da un numero minore di scale, come nella ricerca psicologica.
So che un approccio comune qui è verificare l'affidabilità delle scale usando l'alfa di Cronbach o qualcosa di simile, quindi aggregare gli elementi nelle scale per formare punteggi di scala e continuare l'analisi da lì.
Ma c'è anche l'analisi dei fattori, che può prendere tutti i punteggi dei tuoi articoli come input e dirti quali di essi formano fattori coerenti. Puoi capire quanto sono forti questi fattori osservando i caricamenti e le comunità, e così via. Per me questo sembra lo stesso tipo di cose, solo molto più in profondità.
Anche se tutte le affidabilità della bilancia sono buone, un EFA potrebbe correggerti su quali elementi si adattano meglio a quali scale, giusto? Probabilmente otterrai crossloading e potrebbe avere più senso usare punteggi di fattori derivati rispetto a semplici somme di scala.
Se voglio usare queste bilance per qualche analisi successiva (come la regressione o ANOVA), dovrei semplicemente aggregare le scale finché la loro affidabilità regge? O è qualcosa come CFA (test per vedere se le scale reggono come buoni fattori, che sembra misurare la stessa cosa di "affidabilità").
Mi hanno insegnato entrambi gli approcci in modo indipendente e quindi non so davvero come si relazionano, se possono essere usati insieme o quale ha più senso per quale contesto. Esiste un albero decisionale per le buone pratiche di ricerca in questo caso? Qualcosa di simile a:
Esegui CFA in base agli elementi di scala previsti
- Se CFA mostra un buon adattamento, calcola i punteggi dei fattori e usali per l'analisi.
- Se CFA mostra una scarsa vestibilità, esegui invece EFA e adotta un approccio esplorativo (o qualcosa del genere).
L'analisi fattoriale e i test di affidabilità sono effettivamente approcci separati alla stessa cosa o sto incomprendo da qualche parte?