Esiste una descrizione davvero semplice delle differenze pratiche tra queste due tecniche?
Entrambi sembrano essere utilizzati per l'apprendimento supervisionato (anche se le regole di associazione possono anche gestire senza supervisione).
Entrambi possono essere utilizzati per la previsione
La più vicina che ho trovato ad una descrizione "buona" è dal libro di testo di Statoft . Dicono che le Regole dell'Associazione sono usate per:
... rileva relazioni o associazioni tra valori specifici di variabili categoriche in grandi set di dati.
Mentre i classificatori dell'albero delle decisioni sono descritti come utilizzati per:
... prevedere l'appartenenza di casi o oggetti nelle classi di una variabile dipendente categoriale dalle loro misurazioni su una o più variabili predittive.
Tuttavia, oltre a R Data Mining, forniscono un esempio delle regole di associazione utilizzate con un campo obiettivo .
Quindi, entrambi possono essere utilizzati per prevedere l'appartenenza al gruppo, è la differenza fondamentale che gli alberi decisionali possono gestire dati di input non categorici mentre le regole di associazione non possono? O c'è qualcosa di più fondamentale? Un sito ( sqlserverdatamining.com ) afferma che la differenza chiave è:
Le regole degli alberi decisionali si basano sull'acquisizione di informazioni mentre le regole di associazione si basano sulla popolarità e / o sulla fiducia.
Quindi (possibilmente rispondendo alla mia domanda) significa che le regole di associazione vengono valutate esclusivamente sulla frequenza con cui compaiono nel set di dati (e quanto spesso sono "vere") mentre gli alberi delle decisioni stanno effettivamente cercando di minimizzare la varianza?
Se qualcuno fosse a conoscenza di una buona descrizione, sarebbero disposti a indicarmi che sarebbe fantastico.