Come si spiega la differenza tra rischio relativo e rischio assoluto?


12

L'altro giorno ho avuto una consultazione con un epidemiologo. È laureata in sanità pubblica in epidemiologia e ha una grande esperienza statistica. Fa da mentore ai suoi ricercatori e residenti e li aiuta con problemi statistici. Capisce piuttosto bene i test di ipotesi. Ha avuto un tipico problema nel confrontare due gruppi per vedere se c'è una differenza nel rischio correlato all'insufficienza cardiaca congestizia (CHF). Ha testato la differenza media nella percentuale di soggetti che ottengono CHF. Il valore p era 0,08. Quindi ha anche deciso di esaminare il rischio relativo e ha ottenuto un valore p di 0,027. Quindi ha chiesto perché uno è significativo e l'altro no. Osservando gli intervalli di confidenza bilaterale al 95% per la differenza e per il rapporto, ha visto che l'intervallo di differenza medio conteneva 0 ma il limite di confidenza superiore per il rapporto era inferiore a 1. Quindi, perché otteniamo risultati incoerenti. La mia risposta mentre tecnicamente corretta non era molto soddisfacente. Ho detto "Queste sono statistiche diverse e possono dare risultati diversi. I valori di p sono entrambi nell'area di marginalmente significativa. Ciò può accadere facilmente." Penso che ci debbano essere modi migliori per rispondere ai medici laici in termini di laici per aiutarli a capire la differenza tra testare il rischio relativo rispetto al rischio assoluto. Negli studi Epi questo problema si presenta molto perché spesso guardano a eventi rari in cui i tassi di incidenza per entrambi i gruppi sono molto piccoli e le dimensioni del campione non sono molto grandi. Ci ho pensato un po 'e ho alcune idee che condividerò. Ma prima vorrei sapere come alcuni di voi lo gestiranno. So che molti di voi lavorano o si consultano in campo medico e probabilmente hanno affrontato questo problema. Cosa faresti?


I modelli includono altre covariate oltre all'effetto gruppo?
onestop,

@onestop Ci sono covariate che sono interessate a guardare, ma il test effettivo stava solo confrontando l'effetto principale. Se desideri commentare supponendo che il test fosse basato su un modello di regressione o supponiamo che avessimo tempo per i dati dell'evento per adattarsi a un modello di regressione di Cox, sentiti libero di commentare. Mi piacerebbe sentire le tue intuizioni. La mia domanda è rivolta al problema generale e non solo all'esempio specifico.
Michael R. Chernick,

Intendevo, il test che confrontava l'effetto principale (di gruppo) era regolato per le covariate o non aggiustato? Se non aggiustato, potrebbe essere utile darci il tavolo 2 × 2, o uno simile, per focalizzare le idee.
onestop,

Non aggiustato per questi test particolari.
Michael R. Chernick,

Risposte:


7

Bene, da quello che hai già detto, penso che tu ne abbia coperto gran parte, ma ho solo bisogno di metterlo nella sua lingua: uno è una differenza di rischi, uno è un rapporto. Quindi un test di ipotesi chiede se mentre l'altro chiede se p 2p2p1=0. A volte questi sono "vicini" a volte no. (Chiudi tra virgolette perché chiaramente non sono vicine nel solito senso aritmetico). Se il rischio è raro, questi sono in genere "distanti". es.002/.001=2(lontano da 1) mentre.002-.001=.001(vicino a 0); ma se il rischio è alto, allora questi sono "vicini":.2/.1=2(lontano da 0) e.2-.1=.1(anche lontano da 0, almeno rispetto al raro caso.p2p1=1.002/.001=2.002.001=.001.2/.1=2.2.1=.1


2
Hai una delle mie idee lì dentro, quando il numero è piccolo, il che è comune nello studio dei bassi tassi di incidenza, le differenze sembrano piccole ma i rapporti sembrano ancora grandi. Il tuo esempio numerico è molto convincente. Sono tentato di aggiungere qualcosa sulla stabilità delle stime sotto l'ipotesi nulla. Per alcuni questo può essere troppo tecnico, ma al suo livello di sofisticazione forse no. Supponiamo che le due popolazioni abbiano distribuzioni nominali pari a zero e varianza comune nota. Quindi la differenza normalizzata è N (0,1) sotto l'ipotesi nulla dando una statistica di prova molto stabile.
Michael R. Chernick,

1
Ma sotto questi presupposti il ​​rapporto ha una distribuzione di Cauchy e può essere molto grande. Forse questo argomento deve essere modificato poiché i tassi di incidenza devono essere positivi e forse la distribuzione è molto distorta. Immagino che quello che voglio sia un esempio che mostra che la differenza ha una distribuzione molto stabile e il rapporto non lo fa soprattutto perché la dimensione del campione è piccola e il denominatore può avvicinarsi molto a 0. Qualcuno ha un buon esempio illustrativo?
Michael R. Chernick,

@Peter Forse cercavi di scrivere tre non s due? In tal caso potresti definire la tua notazione? pi
onestop,

Penso che intendesse p1 quando ha scritto p0. Solo un errore di base. Avere tre ps in questo contesto non ha senso.
Michael R. Chernick,

1
Ho apportato la modifica per Peter. Gridami se ho fatto qualcosa di sbagliato!
Michael R. Chernick,

6

Tieni presente che in entrambi i test, verifichi un'ipotesi completamente diversa con ipotesi diverse. I risultati non sono comparabili e questo è un errore fin troppo comune.

A rischio assoluto si verifica se la differenza (media) in proporzione differisce significativamente da zero. L'ipotesi di base nel test standard per questo presuppone che le differenze di proporzione siano normalmente distribuite. Questo potrebbe valere per piccole proporzioni, ma non per grandi. Tecnicamente si calcola la seguente probabilità condizionata:

P(p1p2=0|X)

p1p2Xb

p=a+bX+ϵ

ϵN(0,σ)

X

P(log(p1p2)=0|X)

che equivale a testare la pendenza nel seguente modello logistico:

log(p1p)=a+bX+ϵ

log(p1p)

Il motivo per cui questo fa la differenza è nella risposta di Peter Flom: una piccola differenza nei rischi assoluti può portare a un grande valore per le probabilità. Quindi, nel tuo caso, significa che la percentuale di persone che ottengono la malattia non differisce in modo sostanziale, ma le probabilità di essere in un gruppo sono significativamente maggiori delle probabilità di essere nell'altro gruppo. È perfettamente sensato.


1
Penso che finora siamo tutti d'accordo sul fatto che la ragione principale del problema è che piccole differenze nel rischio assoluto possono portare a grandi differenze nel rischio relativo. Dopotutto, da 0,2 a 1 ha lo stesso rischio relativo da 0,0002 a 0,0001. Penso che questo sia il messaggio che possiamo portare a casa al laico. La tua spiegazione è ottima per gli statistici, ma non sono sicuro che sarebbe facilmente comprensibile per un laico e si potrebbe dire "Quindi, se
testassi

Stai ancora cercando di determinare dove le tariffe sono diverse. Quindi, anche se le ipotesi sono diverse, i risultati dovrebbero essere coerenti. Dopotutto p1-p2 = 0 è lo stesso di p1 / p2 = 1. "Quindi penso che il fatto che le ipotesi siano diverse non risponda al punto e non è una spiegazione soddisfacente.
Michael R. Chernick,

@MichaelChernick Stavo per dire che le differenze di proporzione sono condizionate e il rapporto di probabilità no. Ma non è così, entrambi danno esattamente lo stesso risultato dopo aver trasposto la tabella (nel caso di una tabella 2X2). Ho eseguito alcune simulazioni, ma non riesco a forzare i valori di p prop.test(o chisq.testpoiché è equivalente nel caso 2x2) e fisher.testad essere distanti più di 0,005. Quindi mi chiedo quali test ha usato ...
Joris Meys,

Sarebbe o chi square o il test di Fisher. Molto probabilmente il test di Fisher perché sa in piccoli campioni che l'approssimazione del chi quadrato non è buona. Quando faccio statistiche per loro uso SAS. Ha fatto il suo lavoro usando STATA. Posso probabilmente scavare la tabella reale.
Michael R. Chernick,

2
log(p1p0)=log(p1)log(p0)p1p0
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.