Ci sono alcune differenze terminologiche in cui la stessa cosa è chiamata nomi diversi in diverse discipline:
- I dati longitudinali in biostatistica sono osservazioni ripetute degli stessi individui = dati panel in econometria.
- Il modello per una variabile dipendente binaria in cui la probabilità di 1 è modellata come è chiamato modello logit in econometria e modello logistico in biostatistica. I biostatisti tendono a lavorare con la regressione logistica in termini di rapporti di probabilità, poiché le loro sono spesso binarie, quindi i rapporti di probabilità rappresentano le frequenze relative del risultato di interesse nei due gruppi della popolazione. Questa è un'interpretazione così comune che spesso vedrai una variabile continua trasformata in due categorie (bassa vs alta pressione sanguigna) per facilitare questa interpretazione.x1/(1+exp[−x′β])x
- Le "equazioni di stima" degli statistici sono le "condizioni del momento" degli econometrici. Le stime degli statistici sono stimatori estremi degli econometrici.M
Esistono differenze terminologiche in cui lo stesso termine viene utilizzato per indicare cose diverse in discipline diverse:
- Gli effetti fissi rappresentano nell'equazione di regressione per gli statistici ANOVA e per uno stimatore "entro" per gli econometrici.x′β
- Inferenza robusta significa errori standard corretti dall'eteroschedasticità per gli economisti (con estensioni agli errori standard raggruppati e / o errori standard corretti dall'autocorrelazione) e metodi robusti da valori anomali di gran lunga superiori agli statistici.
- Sembra che gli economisti abbiano un'idea ridicola che i campioni stratificati siano quelli in cui le probabilità di selezione variano tra le osservazioni. Questi dovrebbero essere chiamati campioni di probabilità disuguali. I campioni stratificati sono quelli in cui la popolazione è suddivisa in gruppi predefiniti in base alle caratteristiche note prima che il campionamento abbia luogo.
- "Data mining" degli econometrici (almeno nella letteratura degli anni '80) significava più test e insidie ad esso correlati che sono stati meravigliosamente spiegati nel libro di Harrell . Le procedure di data mining degli informatici (e degli statistici) sono metodi non parametrici per trovare modelli nei dati, noti anche come apprendimento statistico .
Vedo che i contributi unici di econometria siano
- Modi per trattare l'endogeneità e modelli di regressione poco specificati, riconoscendo, come mpiktas ha spiegato in un'altra risposta , che (i) le variabili esplicative possono essere casuali (e quindi correlate a errori di regressione che producono distorsioni nelle stime dei parametri), (ii) il i modelli possono soffrire di variabili omesse (che poi diventano parte del termine di errore), (iii) potrebbe esserci un'eterogeneità inosservata di come gli agenti economici reagiscono agli stimoli, complicando così i modelli di regressione standard. Angrist & Pischke è una meravigliosa recensione di questi problemi e gli statistici impareranno molto su come fare analisi di regressione da esso. Per lo meno, gli statistici dovrebbero imparare e comprendere la regressione delle variabili strumentali.
- Più in generale, gli economisti vogliono fare il minor numero possibile di ipotesi sui loro modelli, in modo da assicurarsi che le loro scoperte non dipendano da qualcosa di ridicolo come la normalità multivariata. Ecco perché GMM è estremamente popolare tra gli economisti e non ha mai raggiunto le statistiche (anche se è stato descritto come minimo da Ferguson alla fine degli anni '60). Ecco perché l'adozione della probabilità empirica è cresciuta esponenzialmente in econometria, con un seguito marginale nelle statistiche. Ecco perché gli economisti eseguono la regressione con errori standard "solidi" e statistici, con gli errori standard OLS predefiniti.s 2 ( X ′ X ) - 1χ2s2(X′X)−1
- C'è stato molto lavoro nel dominio del tempo con processi spaziati regolarmente: è così che vengono raccolti i dati macroeconomici. I contributi unici comprendono processi integrati e cointegrati e metodi autoregressivi di eteroschedasticità condizionale ((G) ARCH). Essendo generalmente una persona micro, ho meno familiarità con questi.
Nel complesso, gli economisti tendono a cercare una forte interpretazione dei coefficienti nei loro modelli. Gli statistici prenderebbero un modello logistico come un modo per arrivare alla probabilità del risultato positivo, spesso come un semplice dispositivo predittivo, e potrebbero anche notare l'interpretazione GLM con belle proprietà esponenziali della famiglia che possiede, nonché connessioni con analisi discriminanti. Gli economisti penserebbero all'interpretazione dell'utilità del modello logit e si preoccuperebbero che in questo modello sia identificato solo e che l'eteroschedasticità possa annullarlo. (Gli statistici si chiederanno cosaσβ/σσ sono gli economisti che parlano, ovviamente.) Naturalmente, un'utilità che è lineare nei suoi input è una cosa molto divertente dal punto di vista della Microeconomia 101, sebbene alcune generalizzazioni a funzioni semi-concave siano probabilmente fatte in Mas-Collel.
Ciò che gli economisti generalmente tendono a perdere, ma, IMHO, ne trarrebbe vantaggio, sono aspetti dell'analisi multivariata (compresi i modelli di variabili latenti come modo per gestire errori di misurazione e proxy multipli ... gli statistici sono ignari di questi modelli, però) , diagnostica di regressione (tutte queste distanze di Cook, MallowsCp, DFBETA, ecc.), Analisi dei dati mancanti (l'identificazione parziale di Manski è sicuramente stravagante, ma la ripartizione MCAR / MAR / NMAR e l'imputazione multipla sono più utili) e le statistiche dell'indagine. Molti altri contributi delle statistiche tradizionali sono stati intrattenuti dall'econometria e adottati come una metodologia standard o passati come una moda a breve termine: i modelli ARMA degli anni '60 sono probabilmente più conosciuti in econometria che in statistica, come alcuni programmi di laurea nelle statistiche potrebbe non offrire un corso di serie storiche in questi giorni; stimatori di contrazione / regressione della cresta degli anni '70 sono venuti e se ne sono andati; il bootstrap degli anni '80 è una reazione istintiva per qualsiasi situazione complicata, sebbene gli economisti debbano essere più consapevoli dei limiti del bootstrap; la probabilità empirica degli anni '90 ha visto più sviluppo metodologico da econometrici teorici che da statistici teorici; i metodi bayesiani computazionali degli anni 2000 vengono intrattenuti in econometria, ma la mia sensazione è che siano troppo parametrici, troppo basati su modelli, per essere compatibili con il paradigma di robustezza che ho citato in precedenza. Se gli economisti troveranno un uso dell'apprendimento statistico / bioinformatica o roba spazio-temporale estremamente caldo nelle statistiche moderne è una richiesta aperta.