Il bagging è la generazione di più predittori che funziona come un singolo predittore. Il dropout è una tecnica che insegna a una rete neurale come media di tutte le sottoreti possibili. Osservando le più importanti competizioni di Kaggle sembra che queste due tecniche vengano usate insieme molto spesso. Non vedo alcuna differenza teorica oltre all'implementazione effettiva. Chi può spiegarmi perché dovremmo usarli entrambi in qualsiasi vera applicazione? e perché le prestazioni migliorano quando le usiamo entrambe?