Le foreste casuali funzionano creando un insieme di alberi decisionali in cui ogni albero viene creato utilizzando un campione bootstrap dei dati di addestramento originali (campione di variabili di input e osservazioni). È possibile applicare un processo simile per la regressione lineare? Crea k modelli di regressione lineare usando un …
Vorrei creare una foresta casuale usando il seguente processo: Costruisci un albero su un campione casuale di dati e caratteristiche usando il guadagno delle informazioni per determinare le divisioni Terminare un nodo foglia se supera una profondità predefinita O qualsiasi divisione comporterebbe un conteggio delle foglie inferiore a un minimo …
Mi sembra che l'apprendimento d'insieme fornirà sempre migliori prestazioni predittive rispetto a una singola ipotesi di apprendimento. Quindi, perché non li usiamo sempre? La mia ipotesi è forse a causa di limitazioni computazionali? (anche allora, usiamo predittori deboli, quindi non lo so).
Comprendo teoricamente (in un certo senso) come funzionerebbero, ma non sono sicuro di come utilizzare effettivamente un metodo di ensemble (come voto, miscele ponderate, ecc.). Quali sono le buone risorse per l'implementazione dei metodi di ensemble? Ci sono risorse particolari per quanto riguarda l'implementazione in Python? MODIFICARE: Per chiarire alcuni …
Voglio costruire un modello di regressione che è una media di più modelli OLS, ciascuno basato su un sottoinsieme dei dati completi. L'idea alla base di questo è basata su questo documento . Creo k pieghe e costruisco k modelli OLS, ognuno sui dati senza una delle pieghe. Quindi faccio …
Devo automatizzare la previsione delle serie storiche e non conosco in anticipo le funzionalità di tali serie (stagionalità, tendenza, rumore, ecc.). Il mio obiettivo non è quello di ottenere il miglior modello possibile per ogni serie, ma di evitare modelli piuttosto cattivi. In altre parole, ottenere piccoli errori ogni volta …
Ho cercato di capire l'incremento del gradiente leggendo vari blog, siti Web e cercando di trovare la mia risposta cercando ad esempio il codice sorgente XGBoost. Tuttavia, non riesco a trovare una spiegazione comprensibile di come gli algoritmi di aumento gradiente producano stime di probabilità. Quindi, come calcolano le probabilità?
Di recente mi sono interessato al raggruppamento di modelli come forma di apprendimento dell'ensemble. In particolare, ho sperimentato un po 'con alcuni set di dati giocattolo per problemi di regressione. Ho praticamente implementato singoli regressori di "livello 0", memorizzato le previsioni di output di ciascun regressore come una nuova funzionalità …
Metodi di ensemble basati su alberi come Random Forest e derivati successivi (ad esempio, foresta condizionale), tutti pretendono di essere utili nei cosiddetti problemi "small n , large p ", per identificare l'importanza della variabile relativa. In effetti, questo sembra essere il caso, ma la mia domanda è fino a …
Supponiamo di avere un campione di frequenze di 4 possibili eventi: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 e ho le probabilità attese dei miei eventi: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Con la somma delle frequenze osservate dei …
Sto leggendo l' apprendimento automatico pratico con Scikit-Learn e TensorFlow: concetti, strumenti e tecniche per costruire sistemi intelligenti . Quindi non sono in grado di capire la differenza tra voto duro e voto morbido nel contesto di metodi basati su ensemble. Cito le loro descrizioni dal libro. Le prime due …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.