Quali sono i progressi nelle statistiche degli ultimi 15 anni?


56

Ricordo ancora il documento Annals of Statistics su Boosting di Friedman-Hastie-Tibshirani e i commenti sugli stessi argomenti di altri autori (inclusi Freund e Schapire). A quel tempo, chiaramente Boosting era considerato una svolta sotto molti aspetti: computazionalmente fattibile, un metodo d'insieme, con prestazioni eccellenti ma misteriose. Nello stesso periodo, SVM divenne maggiorenne, offrendo una struttura sostenuta da una solida teoria e con molte varianti e applicazioni.

Quello era negli anni '90 meravigliosi. Negli ultimi 15 anni, mi sembra che molte statistiche siano state un'operazione di pulizia e di dettaglio, ma con pochi punti di vista davvero nuovi.

Quindi farò due domande:

  1. Mi sono perso alcuni articoli rivoluzionari / seminali?
  2. In caso contrario, ci sono nuovi approcci che ritieni possano potenzialmente cambiare il punto di vista dell'inferenza statistica?

Regole:

  1. Una risposta per post;
  2. Riferimenti o collegamenti sono benvenuti.

PS: ho un paio di candidati per scoperte promettenti. Li posterò più tardi.


5
Vedi stats.stackexchange.com/q/1883/159 per una domanda simile (che è stata chiusa come soggettiva e argomentativa).
Rob Hyndman,

1
Stavo per far apparire lo stesso thread. Odora di duplicato.
Dirk Eddelbuettel,

1
È soggettivo, certo, ma non va ancora bene per CW?
Christopher Aden,

1
Era su una scala temporale più lunga. Non penso sia un duplicato. Per quanto riguarda le argomentazioni, spetta ai partecipanti. Non sto cercando di assegnare un trofeo qui, solo per tenere il passo con le carte fondamentali che io e gli altri potremmo aver perso. Dal momento che non esiste una risposta giusta, sono tutto per un CW. Trovo interessante che finora tutte le risposte siano sulle innovazioni bayesiane.
gappy,

2
Sembra un post che può essere nonno. Penso che questo possa rimanere aperto.
gung - Ripristina Monica

Risposte:


43

La risposta è così semplice che devo scrivere tutto questo senza senso per rendere CV lasciami pubblicare: R


14

Non sono sicuro che la definiresti una "svolta" di per sé, ma la pubblicazione della teoria della probabilità: la logica della scienza di Edwin Jaynes e Larry Bretthorst potrebbe essere degna di nota. Alcune delle cose che fanno qui sono:

1) mostrare l'equivalenza tra alcuni schemi iterativi di "aggiustamento stagionale" e l'integrazione del "parametro nocivo" bayesiano.

2) risolto il cosiddetto "paradosso della marginalizzazione" - ritenuto da alcuni la "morte del bayesianismo" e da altri la "morte di priori impropri".

3) l'idea che la probabilità descriva uno stato di conoscenza di una proposizione come vera o falsa, al contrario di descrivere una proprietà fisica del mondo .

I primi tre capitoli di questo libro sono disponibili gratuitamente qui .


2
Sfortunatamente, la risoluzione di Jaynes sul paradosso dell'emarginazione era imperfetta. Vedi le note di Kevin Van Horn sul trattamento del paradosso della marginalizzazione di Jaynes , disponibili qui .
Ciano

1
@cyan - Nota che mentre la sua risoluzione era imperfetta in alcune aree, i suoi principi di fondo l'hanno risolta. La regola generale dei priori propri e i loro limiti convergenti significa che la MP non può sorgere. Il difetto è molto probabilmente dovuto al fatto che il libro è incompiuto per la maggior parte della seconda parte. Mi piace la risoluzione [qui] ( arxiv.org/abs/math/0310006 ) meglio della versione ksvh. più breve e più generale.
Probislogic

14

Come statistico applicato e autore occasionale di software minori, direi:

WinBUGS (rilasciato nel 1997)

È basato su BUGS, che è stato rilasciato più di 15 anni fa (1989), ma è WinBUGS che ha reso l'analisi bayesiana di modelli realisticamente complessi disponibili per una base di utenti molto più ampia. Vedi ad esempio Lunn, Spiegelhalter, Thomas & Best (2009) (e la discussione su Statistica in medicina vol. Numero 28 ).


2
Come cambia questo ora che Stanè uscito?
Ari B. Friedman,

13

LARS ottiene il mio voto. Combina la regressione lineare con la selezione variabile. Algoritmi per il calcolo di solito ti danno una collezione di lineari modelli, l' esimo uno dei quali ha coefficienti diversi da zero per solo regressori, in modo da poter facilmente vedere modelli di diversa complessità.i ikii


Hai mai usato LARS? Lo sto chiedendo perché non ne ho mai sentito parlare prima e sembra davvero interessante. L'articolo originale è un po 'lungo (93 pagine), quindi mi piacerebbe avere qualche opinione prima di approfondire.
Tomek Tarczynski,

@Tomek Tarczynski: l'ho usato una piccola quantità. C'è un pacchetto in Matlab (sono sicuro che ce ne sia uno o più in R), che ho usato. Fornisce anche un PCA scarso, che mi interessava di più. Devo ammettere che ho solo sfogliato la carta. ;)
shabbychef,

11

L'introduzione della funzione di perdita "discrepanza intrinseca" e altre funzioni di perdita "senza parametrizzazione" nella teoria delle decisioni. Ha molte altre proprietà "belle", ma penso che la migliore sia la seguente:

se la migliore stima di usando la funzione di perdita di discrepanza intrinseca è , allora la migliore stima di qualsiasi funzione uno-a-uno di , diciamo che è semplicemente .θ e θ g ( θ ) g ( θ e )θθeθg(θ)g(θe)

Penso che sia molto bello! (ad es. la migliore stima delle probabilità del log è log (p / (1-p)), la migliore stima della varianza è il quadrato della deviazione standard, ecc. ecc.)

La presa? la discrepanza intrinseca può essere abbastanza difficile da capire! (implica la funzione min (), un rapporto di verosimiglianza e integrali!)

Il "contraccolpo"? puoi "riorganizzare" il problema in modo che sia più facile da calcolare!

Il "counter-counter-catch"? capire come "riorganizzare" il problema può essere difficile!

Ecco alcuni riferimenti che conosco che utilizzano questa funzione di perdita. Mentre mi piacciono molto le parti di "stima intrinseca" di questi articoli / diapositive, ho alcune riserve sull'approccio "riferimento precedente" che è anche descritto.

Test di ipotesi bayesiana: un approccio di riferimento

Stima intrinseca

Confronto dei mezzi normali: nuovi metodi per un vecchio problema

Test di stima e ipotesi bayesiana obiettivo integrato



9

Aggiungendo i miei 5 centesimi, credo che la svolta più significativa degli ultimi 15 anni sia stata la compressione dei sensori. LARS, LASSO e una miriade di altri algoritmi rientrano in questo dominio, in quanto Compressed Sensing spiega perché funzionano e li estende ad altri domini.


1
Ho osservato Compressed Sensing e come non statistico continuo a chiedermi "Non è solo una proiezione casuale inversa?". So che "solo" è una parola facile da mettere in giro, ma sembra che le persone stiano tralasciando quelle che sembrano ovvie connessioni tra proiezione casuale (circa 2000) e rilevamento compresso (circa 2004).
Wayne,

9

Qualcosa che ha ben poco a che fare con le statistiche stesse, ma è stato di enorme beneficio: la crescente potenza di fuoco dei computer, rendendo più accessibili set di dati più grandi e analisi statistiche più complesse, specialmente nei campi applicati.


8

L'algoritmo Expectation-Propagation per l'inferenza bayesiana, in particolare nella classificazione del processo gaussiano, è stato senza dubbio un importante passo avanti, in quanto fornisce un metodo di approssimazione analitica efficiente che funziona quasi così come approcci basati sul campionamento costosi dal punto di vista computazionale (a differenza della solita approssimazione di Laplace). Guarda il lavoro di Thomas Minka e altri sulla tabella di marcia del PE


L'EP sembra bello (anche se mi fa ancora male alla testa). Manca ancora le garanzie generali sulla convergenza?
conjugateprior



2

Mentre un po 'più generale delle statistiche, penso che ci siano stati importanti progressi nei metodi di ricerca eproducibile (RR) . Ad esempio lo sviluppo di R knittreSweavepacchetti e notebook "R Markdown", i miglioramenti di LyX e LaTeX hanno contribuito in modo significativo alla condivisione dei dati, alla collaborazione, alla verifica / convalida e persino a ulteriori progressi statistici. Documenti di riferimento su riviste statistiche, mediche ed epidemiologiche raramente permettevano di riprodurre facilmente i risultati prima dell'emergere di questi metodi / tecnologie di ricerca riproducibili. Ora, diverse riviste richiedono ricerche riproducibili e molti statistici utilizzano RR e inviando codice, i loro risultati e le fonti di dati sul web. Ciò ha anche contribuito a promuovere le discipline della scienza dei dati e ha reso più accessibile l'apprendimento statistico.


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.