Bayesian: "Ciao, studente di macchine!"
Frequentista: "Ciao, studente di macchine!"
Apprendimento automatico: "Ho sentito che siete bravi ragazzi. Ecco alcuni dati."
F: "Sì, scriviamo un modello e quindi calcoliamo l'MLE."
B: "Ehi, F, non è quello che mi hai detto ieri! Avevo alcuni dati univariati e volevo stimare la varianza, e ho calcolato l'MLE. Poi mi hai lanciato e mi hai detto di dividere per invece di din−1n . "
F: "Ah sì, grazie per avermelo ricordato. Penso spesso che dovrei usare l'MLE per tutto, ma sono interessato a stimatori imparziali e così via."
ML: "Eh, di cosa tratta questa filosofia? Mi aiuterà?"
F: "OK, uno stimatore è una scatola nera, inserisci i dati e ti dà alcuni numeri. A noi frequentatori non interessa il modo in cui è stata costruita la scatola, su quali principi sono stati usati per progettarla. Ad esempio, io non so come derivare la regola . "÷(n−1)
ML: "Allora, che ti importa?"
F: "Valutazione".
ML: "Mi piace il suono di quello."
F: "Una scatola nera è una scatola nera. Se qualcuno afferma che uno stimatore particolare è uno stimatore imparziale per , allora proviamo molti valori di a loro volta, generiamo molti campioni da ciascuno basato su un modello presunto, spingili attraverso lo stimatore e trova il stimato medio . Se possiamo dimostrare che la stima attesa è uguale al valore reale, per tutti i valori, allora diciamo che è imparziale ".θθθ
ML: "Sembra fantastico! Sembra che i frequentatori siano persone pragmatiche. Giudichi ogni scatola nera in base ai suoi risultati. La valutazione è la chiave."
F: "Davvero! Capisco che avete un approccio simile. Convalida incrociata, o qualcosa del genere? Ma a me sembra disordinato."
ML: "Disordinato?"
F: "L'idea di testare il tuo stimatore su dati reali mi sembra pericolosa. I dati empirici che utilizzi potrebbero avere tutti i tipi di problemi con esso e potrebbero non comportarsi secondo il modello concordato per la valutazione."
ML: "Cosa? Pensavo avessi detto che avresti dimostrato alcuni risultati? Che il tuo stimatore sarebbe sempre stato imparziale, per tutti i ."θ
F: "Sì. Anche se il tuo metodo potrebbe aver funzionato su un set di dati (il set di dati con il treno e i dati di test) che hai utilizzato nella tua valutazione, posso dimostrare che il mio funzionerà sempre."
ML: "Per tutti i set di dati?"
F: "No."
ML: "Quindi il mio metodo è stato validato in modo incrociato su un set di dati. Non hai testato il tuo su un set di dati reale?"
F: "Esatto".
ML: "Questo mi mette in testa allora! Il mio metodo è migliore del tuo. Prevede il cancro nel 90% delle volte. La tua" prova "è valida solo se l'intero set di dati si comporta secondo il modello che hai assunto."
F: "Emm, sì, suppongo."
ML: "E quell'intervallo ha una copertura del 95% . Ma non dovrei essere sorpreso se contiene solo il valore corretto di 20% delle volte?"θ
F: "Esatto. A meno che i dati non siano veramente normali (o qualsiasi altra cosa), la mia prova è inutile."
ML: "Quindi la mia valutazione è più affidabile e completa? Funziona solo sui set di dati che ho provato finora, ma almeno sono set di dati reali, verruche e tutto il resto. Eccoti lì, cercando di affermare che eri più 'conservatore "e" approfondito "e che tu fossi interessato al controllo dei modelli e cose del genere".
B: (interviene) "Ehi ragazzi, mi dispiace interrompere. Mi piacerebbe intervenire e bilanciare le cose, forse dimostrando alcuni altri problemi, ma mi piace molto guardare il mio collega frequentatore dimenarsi."
F: "Woah!"
ML: "OK, bambini. Si trattava solo di una valutazione. Uno stimatore è una scatola nera. I dati entrano, i dati escono. Approviamo, o disapproviamo, uno stimatore basato su come funziona in fase di valutazione. Non ci interessa sulla "ricetta" o "principi di progettazione" che vengono utilizzati. "
F: "Sì. Ma abbiamo idee molto diverse su quali valutazioni sono importanti. ML effettuerà il training-and-test su dati reali. Considerando che farò una valutazione più generale (perché implica una prova ampiamente applicabile) e anche più limitato (perché non so se il tuo set di dati è effettivamente tratto dalle ipotesi di modellazione che utilizzo durante la progettazione della mia valutazione.) "
ML: "Quale valutazione usi, B?"
F: (interviene) "Ehi. Non farmi ridere. Non valuta nulla. Usa solo le sue convinzioni soggettive e corre con essa. O qualcosa del genere."
B: "Questa è l'interpretazione comune. Ma è anche possibile definire il bayesianismo in base alle valutazioni preferite. Quindi possiamo usare l'idea che a nessuno di noi importi cosa c'è nella scatola nera, ci preoccupiamo solo di modi diversi di valutare."
B continua: "Esempio classico: test medico. Il risultato dell'analisi del sangue è positivo o negativo. Un frequentatore sarà interessato, tra le persone sane, a quale proporzione otterrà un risultato negativo. E allo stesso modo, quale proporzione di malati ottenere un positivo. Il frequentatore calcolerà questi per ogni metodo di analisi del sangue che è in esame e quindi consiglia di utilizzare il test che ha ottenuto la migliore coppia di punteggi. "
F: "Esatto. Cosa si può volere di più?"
B: "Che dire di quegli individui che hanno ottenuto un risultato positivo del test? Vorranno sapere 'di quelli che ottengono un risultato positivo, quanti si ammaleranno?' e "di quelli che ottengono un risultato negativo, quanti sono sani?" "
ML: "Ah sì, sembra un paio di domande migliori da porre."
F: "HERESY!"
B: "Eccoci di nuovo. Non gli piace dove sta andando."
ML: "Si tratta di 'priori', non è vero?"
F: "MALE".
B: "Comunque, sì, hai ragione ML. Per calcolare la proporzione di persone con risultati positivi che sono malati devi fare una delle due cose. Un'opzione è quella di eseguire i test su molte persone e osservare semplicemente il proporzioni pertinenti. Quante di queste persone muoiono per la malattia, ad esempio. "
ML: "Sembra proprio quello che faccio. Usa train-and-test."
B: "Ma puoi calcolare questi numeri in anticipo, se sei disposto a fare un'ipotesi sul tasso di malattia nella popolazione. Anche il frequentatore fa i suoi calcoli in anticipo, ma senza usare questo tasso di malattia a livello di popolazione."
F: "ALTRE ASSUNZIONI NON FONDATE."
B: "Oh, stai zitto. In precedenza, sei stato scoperto. ML ha scoperto che ti piacciono i presupposti infondati di chiunque altro. Le tue probabilità di copertura" comprovate "non si accumulano nel mondo reale a meno che tutte le tue ipotesi non resistano. Perché la mia assunzione precedente è così diversa? Mi chiami pazzo, eppure fai finta che le tue assunzioni siano il lavoro di un'analisi conservativa, solida, priva di assunzioni ".
B (continua): "Comunque, ML, come stavo dicendo. Ai bayesiani piace un diverso tipo di valutazione. Siamo più interessati a condizionare i dati osservati e calcolare di conseguenza l'accuratezza del nostro stimatore. Non possiamo eseguire questa valutazione senza usare un precedente. Ma la cosa interessante è che, una volta che decidiamo su questa forma di valutazione, e una volta scelto il nostro precedente, abbiamo una "ricetta" automatica per creare uno stimatore appropriato. Il frequentatore non ha tale ricetta. Se vuole un stimatore imparziale per un modello complesso, non ha alcun modo automatizzato per costruire uno stimatore adatto. "
ML: "E tu? Puoi costruire automaticamente uno stimatore?"
B: "Sì. Non ho un modo automatico per creare uno stimatore imparziale, perché penso che la distorsione sia un cattivo modo di valutare uno stimatore. Ma data la stima condizionale sui dati che mi piace, e la precedente, I può collegare il priore e la probabilità di darmi lo stimatore ".
ML: "Quindi, ricapitolando. Abbiamo tutti modi diversi di valutare i nostri metodi e probabilmente non saremo mai d'accordo su quali metodi siano i migliori".
B: "Beh, non è giusto. Potremmo mescolarli e abbinarli. Se qualcuno di noi ha buoni dati di allenamento etichettati, dovremmo probabilmente testare contro di esso. E generalmente dovremmo testare quante più ipotesi possibile. E un po 'di frequentista "Anche le prove potrebbero essere divertenti, prevedere le prestazioni in base a un presunto modello di generazione dei dati".
F: "Sì ragazzi. Cerchiamo di essere pragmatici in merito alla valutazione. E in realtà, smetterò di ossessionare le proprietà del campione infinito. Ho chiesto agli scienziati di darmi un campione infinito, ma non l'hanno ancora fatto. È tempo per me di concentrarmi di nuovo su campioni finiti ".
ML: "Quindi, abbiamo solo un'ultima domanda. Abbiamo discusso molto su come valutare i nostri metodi, ma come possiamo creare i nostri metodi."
B: "Ah. Come stavo arrivando prima, noi bayesiani abbiamo il metodo generale più potente. Potrebbe essere complicato, ma possiamo sempre scrivere una sorta di algoritmo (forse una forma ingenua di MCMC) che campionerà dal nostro posteriore. "
F (interviene): "Ma potrebbe avere dei pregiudizi."
B: "Quindi potrebbero i tuoi metodi. Devo ricordarti che l'MLE è spesso distorto? A volte, hai grandi difficoltà a trovare stimatori imparziali e anche quando lo fai hai uno stupido stimatore (per alcuni modelli davvero complessi) che dirà il la varianza è negativa. E tu la chiami imparziale. Sbilanciato, sì. Ma utile, no! "
ML: "OK ragazzi. State di nuovo sbagliando. Lasciate che vi faccia una domanda, F. Avete mai confrontato il pregiudizio del vostro metodo con il pregiudizio del metodo di B, quando entrambi avete lavorato allo stesso problema?"
F: "Sì. In realtà, odio ammetterlo, ma l'approccio di B a volte ha un pregiudizio e un MSE inferiori rispetto al mio stimatore!"
ML: "La lezione qui è che, mentre non siamo d'accordo un po 'sulla valutazione, nessuno di noi ha il monopolio su come creare uno stimatore che abbia proprietà che vogliamo".
B: "Sì, dovremmo leggere il lavoro a vicenda un po 'di più. Possiamo darci l'ispirazione per gli stimatori. Potremmo scoprire che gli stimatori di altri funzionano alla grande, pronti all'uso, sui nostri problemi."
F: "E dovrei smettere di essere ossessionato dal pregiudizio. Uno stimatore imparziale potrebbe avere una varianza ridicola. Suppongo che tutti noi dobbiamo" assumerci la responsabilità "delle scelte che facciamo nel modo in cui valutiamo e delle proprietà che desideriamo vedere nei nostri stimatori. Non possiamo nasconderci dietro una filosofia. Prova tutte le valutazioni che puoi. E continuerò a dare un'occhiata alla letteratura bayesiana per ottenere nuove idee per gli stimatori! "
B: "In effetti, molte persone non sanno davvero quale sia la loro filosofia. Non sono nemmeno sicuro di me stesso. Se uso una ricetta bayesiana e poi provo un bel risultato teorico, non significa che io sono un frequentista? Un frequentatore si preoccupa delle prove sopra riportate sulle prestazioni, non gli importa delle ricette. E se invece faccio un po 'di training e test (o anche), vuol dire che sono uno studente di macchine? "
ML: "Sembra che siamo tutti abbastanza simili allora."