"Fisher's Discriminant Analysis" è semplicemente LDA in una situazione di 2 classi. Quando esistono solo 2 classi, i calcoli a mano sono fattibili e l'analisi è direttamente correlata alla regressione multipla. LDA è l'estensione diretta dell'idea di Fisher sulla situazione di qualsiasi numero di classi e utilizza dispositivi algebrici a matrice (come la composizione elettronica) per calcolarla. Quindi, il termine "Analisi discriminatoria di Fisher" può essere visto oggi come obsoleto. Si dovrebbe usare invece "Analisi discriminante lineare". Vedi anche . L'analisi discriminante con 2+ classi (multi-classe) è canonica dal suo algoritmo (estrae dicriminanti come variate canoniche); termine raro "Analisi discriminatoria canonica"
Fisher ha usato quelle che allora venivano chiamate "funzioni di classificazione Fisher" per classificare gli oggetti dopo che la funzione discriminante era stata calcolata. Al giorno d'oggi, un approccio più generale di Bayes viene utilizzato all'interno della procedura LDA per classificare gli oggetti.
Alla tua richiesta di spiegazioni di LDA posso inviarti queste mie risposte: estrazione in LDA , classificazione in LDA , LDA tra le procedure correlate . Anche questo , questo , questo domande e risposte.
Proprio come ANOVA richiede un'ipotesi di varianze uguali, LDA richiede un'ipotesi di matrici di varianza-covarianza uguali (tra le variabili di input) delle classi. Questa ipotesi è importante per la fase di classificazione dell'analisi. Se le matrici differiscono sostanzialmente, le osservazioni tenderanno ad essere assegnate alla classe in cui la variabilità è maggiore. Per superare il problema, è stato inventato il QDA . QDA è una modifica di LDA che consente l'eterogeneità di cui sopra delle matrici di covarianza delle classi.
Se hai l'eterogeneità (come rilevato ad esempio dal test M di Box) e non hai il QDA a portata di mano, puoi comunque usare LDA nel regime di utilizzo delle singole matrici di covarianza (piuttosto che della matrice aggregata) dei discriminanti alla classificazione . Ciò risolve parzialmente il problema, sebbene in modo meno efficace rispetto al QDA, perché - come appena sottolineato - queste sono le matrici tra i discriminanti e non tra le variabili originali (le cui matrici differivano).
Lasciami analizzare i tuoi dati di esempio per te stesso.
Rispondi alla risposta e ai commenti di @ zyxue
LDA è ciò che hai definito FDA è nella tua risposta. LDA estrae dapprima costrutti lineari (chiamati discriminanti) che massimizzano la separazione tra l'uno e l'altro e quindi li usa per eseguire la classificazione (gaussiana). Se (come dici tu) LDA non fosse legato al compito di estrarre i discriminanti, LDA sembrerebbe essere solo un classificatore gaussiano, non sarebbe necessario alcun nome "LDA".
SwSws sono le stesse covarianze all'interno della classe sono tutte uguali, identità; quel diritto di usarli diventa assoluto.)
Il classificatore gaussiano (il secondo stadio della LDA) usa la regola di Bayes per assegnare osservazioni alle classi da parte dei discriminanti. Lo stesso risultato può essere ottenuto tramite le cosiddette funzioni di classificazione lineare Fisher che utilizzano direttamente le caratteristiche originali. Tuttavia, l'approccio di Bayes basato sui discriminanti è un po 'generale in quanto consentirà di utilizzare anche matrici di covarianza discriminanti di classe separate, oltre al modo predefinito di utilizzarne uno, quello aggregato. Inoltre, consentirà di basare la classificazione su un sottoinsieme di discriminanti.
Quando ci sono solo due classi, entrambe le fasi della LDA possono essere descritte insieme in un unico passaggio perché "l'estrazione di latenti" e la "classificazione delle osservazioni" si riducono allo stesso compito.