Nel rivedere la " Modellazione predittiva applicata " un revisore afferma :
Una critica che ho della pedagogia dell'apprendimento statistico (SL) è l'assenza di considerazioni sulle prestazioni di calcolo nella valutazione delle diverse tecniche di modellizzazione. Con la sua enfasi sul bootstrap e la validazione incrociata per mettere a punto / testare i modelli, SL è piuttosto intenso in termini di calcolo. Aggiungete a ciò il ricampionamento incorporato in tecniche come il bagging e il boosting e avrete lo spettro dell'inferno del calcolo per l'apprendimento supervisionato di grandi set di dati. In effetti, i vincoli di memoria di R impongono limiti piuttosto severi sulla dimensione dei modelli che possono essere adattati da metodi dalle prestazioni più elevate come le foreste casuali. Sebbene SL faccia un buon lavoro nel calibrare le prestazioni del modello rispetto a piccoli set di dati, sarebbe sicuramente utile comprendere le prestazioni rispetto ai costi di calcolo per dati più grandi.
Quali sono i vincoli di memoria di R e impongono limiti severi alle dimensioni dei modelli che possono essere adattati da metodi dalle prestazioni più elevate come le foreste casuali ?