Ho (approssimativamente) sentito che:
il bagging è una tecnica per ridurre la varianza di un algoritmo predittore / stimatore / apprendimento.
Tuttavia, non ho mai visto una prova matematica formale di questa affermazione. Qualcuno sa perché questo è matematicamente vero? Sembra essere un fatto così ampiamente riconosciuto / conosciuto, che mi aspetterei un riferimento diretto a questo. Sarei sorpreso se non ci fosse. Inoltre, qualcuno sa quale effetto ha questo sulla distorsione?
Esistono altre garanzie teoriche sugli approcci di insaccamento che qualcuno conosce e pensa sia importante e voglia condividerli?