Generalmente no, ma potenzialmente sì, se non specificato correttamente. Il problema che stai cercando si chiama ricevibilità. Una decisione è ammissibile se non esiste un modo meno rischioso per calcolarla.
Tutte le soluzioni bayesiane sono ammissibili e le soluzioni non bayesiane sono ammissibili nella misura in cui corrispondono a una soluzione bayesiana in ogni campione o al limite. Una soluzione Frequentista o Bayesiana ammissibile batterà sempre una soluzione ML a meno che non sia anche ammissibile. Detto questo, ci sono alcune osservazioni pratiche che rendono questa affermazione vera ma vacua.
Innanzitutto, il precedente per l'opzione bayesiana deve essere il tuo vero precedente e non una qualche distribuzione precedente utilizzata per rendere felice un editore di un diario. In secondo luogo, molte soluzioni di Frequentist sono inammissibili e al posto della soluzione standard avrebbe dovuto essere utilizzato uno stimatore di contrazione. Molte persone non sono consapevoli del lemma di Stein e delle sue implicazioni per un errore fuori campione. Infine, ML può essere un po 'più robusto, in molti casi, per errori di specificazione errata.
Quando ti sposti negli alberi delle decisioni e nei loro cugini nelle foreste, non stai usando una metodologia simile a meno che tu non stia usando anche qualcosa di simile a una rete di Bayes. Una soluzione grafica contiene al suo interno una notevole quantità di informazioni implicite, in particolare un grafico diretto. Ogni volta che aggiungi informazioni a un processo probabilistico o statistico riduci la variabilità del risultato e cambi ciò che sarebbe considerato ammissibile.
Se guardi l'apprendimento automatico dal punto di vista della composizione delle funzioni, diventa solo una soluzione statistica ma utilizza approssimazioni per rendere trattabile la soluzione. Per le soluzioni bayesiane, MCMC risparmia quantità incredibili di tempo, così come la discesa del gradiente per molti problemi di ML. Se o dovessi costruire un esatto posteriore per integrare o usare la forza bruta su molti problemi di ML, il sistema solare sarebbe morto la sua morte termica prima di ottenere una risposta.
La mia ipotesi è che tu abbia un modello errato per coloro che usano statistiche o statistiche inadeguate. Ho insegnato una lezione in cui ho dimostrato che i neonati galleggiano fuori dalle finestre se non opportunamente fasciati e in cui un metodo bayesiano ha surclassato così radicalmente un metodo frequentista su una scelta multinomiale che il metodo frequentista ha rotto anche, in attesa, mentre il metodo bayesiano ha raddoppiato il denaro dei partecipanti . Ora ho abusato delle statistiche nella prima e ho approfittato dell'inammissibilità dello stimatore frequentista nella seconda, ma un ingenuo utente di statistiche poteva facilmente fare quello che ho fatto. Li ho resi estremi per rendere ovvi gli esempi, ma ho usato dati assolutamente reali.
Le foreste casuali sono stimatori coerenti e sembrano assomigliare a determinati processi bayesiani. A causa del collegamento con gli stimatori del kernel, potrebbero essere abbastanza vicini. Se vedi una differenza sostanziale nelle prestazioni tra i tipi di soluzione, allora c'è qualcosa nel problema sottostante che stai fraintendendo e se il problema ha qualche importanza, allora devi davvero cercare l'origine della differenza poiché potrebbe anche essere il caso in cui tutti i modelli sono errati.