"Alberi di classificazione e regressione". CART è una popolare tecnica di apprendimento automatico e costituisce la base per tecniche come foreste casuali e implementazioni comuni di macchine per il potenziamento del gradiente.
Sto cercando di rintracciare chi ha inventato la struttura e l'algoritmo dei dati dell'albero decisionale. Nella voce di Wikipedia sull'apprendimento dell'albero decisionale si afferma che "ID3 e CART sono stati inventati indipendentemente nello stesso periodo (tra il 1970 e il 1980)". ID3 è stato presentato più tardi in: Quinlan, JR …
Sto eseguendo una classificazione dell'albero decisionale utilizzando SPSS su un set di dati con circa 20 predittori (categorico con poche categorie). CHAID (Rilevazione automatica dell'interazione Chi-quadrato) e CRT / CART (alberi di classificazione e regressione) mi danno alberi diversi. Qualcuno può spiegare i meriti relativi di CHAID vs CRT? Quali …
Sto cercando un'alternativa agli alberi di classificazione che potrebbe produrre un migliore potere predittivo. I dati con cui ho a che fare hanno fattori sia per le variabili esplicative che per quelle spiegate. Ricordo di essermi imbattuto in foreste casuali e reti neurali in questo contesto, sebbene non le avessi …
Quali sono i metodi utilizzati dagli algoritmi di apprendimento dell'albero decisionale per gestire i valori mancanti. Semplicemente riempiono lo slot usando un valore chiamato missing? Grazie.
Sto studiando gli alberi di classificazione e regressione e una delle misure per la posizione divisa è il punteggio GINI. Ora sono abituato a determinare la migliore posizione divisa quando il registro del rapporto di verosimiglianza degli stessi dati tra due distribuzioni è zero, il che significa che la probabilità …
Quasi ogni esempio di albero decisionale che ho incontrato sembra essere un albero binario. È praticamente universale? La maggior parte degli algoritmi standard (C4.5, CART, ecc.) Supporta solo alberi binari? Da quello che raccolgo, CHAID non si limita agli alberi binari, ma sembra essere un'eccezione. Una divisione a due vie …
Dopo aver eseguito l'analisi dei componenti principali (PCA), voglio proiettare un nuovo vettore nello spazio PCA (ovvero trovare le sue coordinate nel sistema di coordinate PCA). Ho calcolato PCA in linguaggio R utilizzando prcomp. Ora dovrei essere in grado di moltiplicare il mio vettore per la matrice di rotazione PCA. …
Ho un set di dati composto da 5 funzioni: A, B, C, D, E. Sono tutti valori numerici. Invece di fare un clustering basato sulla densità, quello che voglio fare è raggruppare i dati in modo simile ad un albero decisionale. L'approccio intendo è qualcosa del genere: L'algoritmo può dividere …
Non sono un esperto di foreste casuali ma capisco chiaramente che il problema chiave con la foresta casuale è la generazione di alberi (casuali). Puoi spiegarmi come vengono generati gli alberi? (ovvero qual è la distribuzione utilizzata per la generazione di alberi?) Grazie in anticipo !
Ceppo decisionale è un albero decisionale con una sola divisione. Può anche essere scritto come una funzione a tratti. Ad esempio, supponiamo che xxx sia un vettore e x1x1x_1 sia il primo componente di xxx , nell'impostazione di regressione, un moncone di decisione può essere f(x)={35x1≤2x1>2f(x)={3x1≤25x1>2f(x)= \begin{cases} 3& x_1\leq 2 …
Qual è la definizione di "spazio funzionalità"? Ad esempio, durante la lettura di SVM, ho letto di "mapping allo spazio delle caratteristiche". Durante la lettura di CART, ho letto di "partizionare nello spazio delle funzionalità". Capisco cosa sta succedendo, specialmente per CART, ma penso che ci sia qualche definizione che …
Le foreste casuali vengono utilizzate per la regressione. Tuttavia, da quello che ho capito, assegnano un valore target medio ad ogni foglia. Dato che ci sono solo foglie limitate in ogni albero, ci sono solo valori specifici che il target può raggiungere dal nostro modello di regressione. Quindi non è …
Sto cercando documenti o testi che confrontino e discutano (empiricamente o teoricamente): Accrescere e Decision Trees algoritmi come casuali Foreste o AdaBoost e GentleBoost applicati agli alberi decisionali. con Metodi di apprendimento profondo come macchine Boltzmann limitate , memoria temporale gerarchica , reti neurali convoluzionali , ecc. Più specificamente, qualcuno …
Qual è la dimensione VC di un albero decisionale con k si divide in due dimensioni? Diciamo che il modello è CART e le uniche divisioni consentite sono parallele agli assi. Quindi per una divisione possiamo ordinare 3 punti in un triangolo e quindi per qualsiasi etichettatura dei punti potremmo …
Ci sono molti post sul blog, video di YouTube, ecc. Sulle idee di insaccamento o potenziamento degli alberi. La mia comprensione generale è che lo pseudo codice per ciascuno è: insacco: Prendi N campioni casuali di x% dei campioni e y% delle caratteristiche Adatta il tuo modello (ad es. Albero …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.