Quando scopro l'apprendimento automatico vedo diverse tecniche interessanti come:
- sintonizza automaticamente algoritmi con tecniche come
grid search
, - ottenere risultati più precisi attraverso la combinazione di diversi algoritmi dello stesso "tipo", quella
boosting
, - ottenere risultati più precisi attraverso la combinazione di diversi algoritmi (ma non lo stesso tipo di algoritmi), che di
stacking
, - e probabilmente molto altro devo ancora scoprire ...
La mia domanda è la seguente: ci sono tutti quei pezzi. Ma è possibile metterli insieme per creare un algoritmo che prende come input i dati puliti e produce buoni risultati prendendo il meglio da tutte le tecniche? (Naturalmente sarà probabilmente meno efficiente di uno scienziato di dati professionale, ma sarà migliore di me!) Se sì, hai dei codici di esempio o conosci dei framework che possono farlo?
EDIT: dopo alcune risposte, sembra che debba essere fatto un restringimento. Facciamo un esempio, abbiamo una colonna con dati categorici, chiamiamola y
e vogliamo prevederla da dati numerici X
che sono o manichini o dati numerici reali (altezza, temperatura). Supponiamo che la pulizia sia stata eseguita in precedenza. Esistono algoritmi esistenti che possono acquisire tali dati e generare una previsione? (testando più algoritmi, ottimizzandoli, potenziandoli, ecc.) Se sì, è computazionalmente efficiente (i calcoli vengono eseguiti in un tempo ragionevole se confrontiamo con l'algoritmo normale) e hai un esempio di codice?
auto.arima
(dalla forecast
biblioteca) può essere meglio degli umani - Rob Hyndman ha menzionato più volte nelle sue presentazioni. Quindi ci sono aree in cui alcuni tipi di "apprendimento automatico" vengono applicati con successo.