Statistica e inferenza causale?


51

Nel suo articolo del 1984 "Statistics and Causal Inference" , Paul Holland ha sollevato una delle domande fondamentali nella statistica:

Cosa può dire un modello statistico sulla causalità?

Ciò ha portato al suo motto:

NESSUNA CAUSAZIONE SENZA MANIPOLAZIONE

che ha sottolineato l'importanza delle restrizioni intorno agli esperimenti che considerano la causalità. Andrew Gelman fa un punto simile :

"Per scoprire cosa succede quando cambi qualcosa, è necessario cambiarlo." ... Ci sono cose che impari perturbando un sistema che non scoprirai mai da nessuna quantità di osservazione passiva.

Le sue idee sono riassunte in questo articolo .

Quali considerazioni dovrebbero essere fatte quando si fa un'inferenza causale da un modello statistico?


2
grande domanda: vedi anche questa domanda correlata sulle statistiche di
Jeromy Anglim


5
Molto da dire. Ma puoi leggere il libro di Pearl "Causality" (2002, ma la più recente 2a edizione), o il libro di Hernan e Robins "Causal Inference" (2015, bozza elettronica gratuita online se cerchi).

Risposte:


28

Questa è una domanda ampia, ma dato che la citazione di Box, Hunter e Hunter è vera, penso a cosa si riduce

  1. La qualità del design sperimentale:

    • randomizzazione, dimensioni dei campioni, controllo dei confondenti, ...
  2. La qualità dell'attuazione del design:

    • aderenza al protocollo, errore di misura, gestione dei dati, ...
  3. La qualità del modello per riflettere accuratamente il design:

    • le strutture di blocco sono rappresentate con precisione, i corretti gradi di libertà sono associati agli effetti, gli stimatori sono imparziali, ...

A rischio di affermare l'ovvio proverò a colpire i punti chiave di ciascuno:

  1. è un ampio sottocampo della statistica, ma nella sua forma più elementare penso che dipenda dal fatto che quando facciamo l'inferenza causale partiamo idealmente con unità identiche che sono monitorate in ambienti identici diversi da quelli assegnati a un trattamento. Eventuali differenze sistematiche tra i gruppi dopo l'assunzione sono quindi logicamente attribuibili al trattamento (possiamo dedurre la causa). Ma il mondo non è così bello e le unità differiscono prima del trattamento e gli esperimenti durante gli esperimenti non sono perfettamente controllati. Quindi "controlliamo ciò che possiamo e randomizziamo ciò che non possiamo", il che aiuta ad assicurare che non ci saranno pregiudizi sistematici a causa dei confondenti che abbiamo controllato o randomizzati. Un problema è che gli esperimenti tendono ad essere difficili (impossibili) e costosi e una grande varietà di progetti sono stati sviluppati per estrarre in modo efficiente quante più informazioni possibili in un ambiente il più attentamente possibile controllato, dati i costi. Alcuni di questi sono piuttosto rigorosi (ad esempio in medicina lo studio in doppio cieco, randomizzato, controllato con placebo) e altri meno (ad esempio varie forme di "quasi-esperimenti").

  2. è anche un grosso problema e quello a cui gli statistici generalmente non pensano ... anche se dovremmo. Nel lavoro statistico applicato posso ricordare le incidenze in cui gli "effetti" riscontrati nei dati erano risultati spuri di incoerenza nella raccolta o nel trattamento dei dati. Mi chiedo anche quante volte le informazioni sui veri effetti causali di interesse vadano perse a causa di questi problemi (credo che gli studenti delle scienze applicate generalmente abbiano una formazione minima o nulla sui modi in cui i dati possono essere danneggiati, ma sto uscendo di argomento qui ...)

  3. è un'altra grande materia tecnica e un altro passo necessario nell'inferenza causale oggettiva. In una certa misura, ciò viene preso in considerazione perché la folla del design sviluppa progetti e modelli insieme (poiché l'obiettivo di un modello è la deduzione, gli attributi degli stimatori guidano il design). Ma questo ci porta così lontano solo perché nel "mondo reale" finiamo per analizzare i dati sperimentali da progetti non di libri di testo e quindi dobbiamo riflettere attentamente su cose come i controlli appropriati e su come dovrebbero entrare nel modello e quali gradi associati di la libertà dovrebbe essere e se le assunzioni sono soddisfatte se non come come adeguare le violazioni e quanto robusti sono gli stimatori di eventuali violazioni rimanenti e ...

Ad ogni modo, si spera che alcuni di questi aspetti aiutino a pensare a considerazioni su come fare un'inferenza causale da un modello. Ho dimenticato qualcosa di grosso?


3
Un grande vantaggio per il punto 2. Oltre a seguire un corso di formazione sulla protezione delle persone, non ho mai ricevuto il minimo addestramento per la raccolta e l'archiviazione dei dati. Ottenere la corretta raccolta dei dati è di gran lunga più importante dell'analisi.
Matt Parker,

Anche a me piacerebbe rispondere, ma temo che non sia rimasto altro da aggiungere a ciò che ha detto Kingsford.
Joris Meys,

7

Oltre all'eccellente risposta di cui sopra, esiste un metodo statistico che può avvicinarti a dimostrare la causalità. È la Causalità di Granger che dimostra che una variabile indipendente che si verifica prima che una variabile dipendente abbia o meno un effetto causale. Presento questo metodo in una presentazione facile da seguire al seguente link:

http://www.slideshare.net/gaetanlion/granger-causality-presentation

Applico anche questo metodo per testare teorie macroeconomiche concorrenti: http://www.slideshare.net/gaetanlion/economic-theory-testing-presentation

Tieni presente che questo metodo non è perfetto. Conferma semplicemente che determinati eventi si verificano prima di altri e che tali eventi sembrano avere una relazione direzionale coerente. Ciò sembra comportare una vera causalità, ma non è sempre così. La chiamata mattutina del gallo non fa sorgere il sole.


4

Cosa può dire un modello statistico sulla causalità? Quali considerazioni dovrebbero essere fatte quando si fa un'inferenza causale da un modello statistico?

La prima cosa da chiarire è che non si può fare un'inferenza causale da un modello puramente statistico. Nessun modello statistico può dire nulla sulla causalità senza ipotesi causali. Cioè, per fare l'inferenza causale è necessario un modello causale .

Anche in qualcosa considerato come il gold standard, come le prove randomizzate di controllo (RCT), è necessario fare ipotesi causali per procedere. Vorrei chiarire questo. Ad esempio, supponiamo che sia la procedura di randomizzazione, il trattamento di interesse e il risultato di interesse. Quando si assume un RCT perfetto, questo è ciò che si presume:ZXY

inserisci qui la descrizione dell'immagine

In questo caso quindi le cose funzionano bene. Tuttavia, si supponga di avere la conformità imperfetta risultante in un rapporto maledetto tra il e . Quindi, ora, il tuo RCT è simile al seguente:P(Y|do(X))=P(Y|X)XY

inserisci qui la descrizione dell'immagine

Puoi ancora fare un'intenzione per trattare l'analisi. Ma se vuoi stimare l'effetto reale di cose non sono più semplici. Questa è un'impostazione variabile strumentale e potresti essere in grado di associare o addirittura identificare il punto se fai delle ipotesi parametriche .X

Questo può diventare ancora più complicato. Potresti avere problemi di errore di misurazione, i soggetti potrebbero abbandonare lo studio o non seguire le istruzioni, tra gli altri problemi. Dovrai fare delle ipotesi sul modo in cui queste cose sono correlate a procedere con deduzione. Con dati di osservazione "puramente" questo può essere più problematico, perché di solito i ricercatori non avranno una buona idea del processo di generazione dei dati.

Quindi, per trarre inferenze causali dai modelli è necessario giudicare non solo le sue ipotesi statistiche, ma soprattutto le sue ipotesi causali. Ecco alcune minacce comuni all'analisi causale:

  • Dati incompleti / imprecisi
  • Quantità di interesse causale target non ben definita (Qual è l'effetto causale che si desidera identificare? Qual è la popolazione target?)
  • Confondente (confonditori non osservati)
  • Distorsione di selezione (auto-selezione, campioni troncati)
  • Errore di misurazione (che può indurre confusione, non solo rumore)
  • Errata specificazione (ad es. Modulo funzionale errato)
  • Problemi di validità esterna (inferenza errata alla popolazione target)

A volte l'affermazione di assenza di questi problemi (o l'affermazione di aver affrontato questi problemi) può essere supportata dalla progettazione dello studio stesso. Ecco perché i dati sperimentali sono generalmente più credibili. A volte, tuttavia, le persone assumeranno questi problemi con la teoria o per comodità. Se la teoria è soft (come nelle scienze sociali), sarà più difficile prendere le conclusioni al valore nominale.

Ogni volta che pensi che ci sia un presupposto di cui non è possibile eseguire il backup, dovresti valutare quanto sensibili siano le conclusioni rispetto alle plausibili violazioni di tali presupposti --- questo di solito si chiama analisi di sensibilità.


Sarebbe equivalente a sostituire la freccia bidirezionale tratteggiata con due frecce solide unidirezionali da un nodo aggiuntivo?
Taylor,

@Taylor sì, un nodo aggiuntivo latente (non osservato).
Carlos Cinelli,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.