La validazione incrociata può essere utilizzata per l'inferenza causale?


37

In tutti i contesti che conosco la convalida incrociata, viene utilizzato esclusivamente con l'obiettivo di aumentare la precisione predittiva. È possibile estendere la logica della convalida incrociata nella stima delle relazioni imparziali tra variabili?

Mentre questo articolo di Richard Berk dimostra l'uso di un campione di prova per la selezione dei parametri nel modello di regressione "finale" (e dimostra perché la selezione dei parametri a livello di passo non è una buona idea), non vedo ancora come ciò garantisca esattamente stime imparziali dell'effetto che X ha su Y più che sulla scelta di un modello basato sulla logica e sulla conoscenza preliminare della materia.

Chiedo alle persone di citare esempi in cui si è usato un campione di prova per aiutare nell'inferenza causale, o saggi generali che possono aiutare la mia comprensione. Inoltre, non dubito che la mia concezione della validazione incrociata sia ingenua, e quindi se lo dice. Sembra sbrigativo che l'uso di un campione di controllo sarebbe suscettibile all'inferenza causale, ma non conosco alcun lavoro che faccia questo o come lo farebbero.

Citazione per il Berk Paper:

Inferenza statistica dopo la selezione del modello di: Richard Berk, Lawrence Brown, Linda Zhao Journal of Quantitative Criminology, vol. 26, n. 2. (1 giugno 2010), pagg. 217-236.

Versione PDF qui

Questa domanda sull'analisi dei dati esplorativi in ​​piccoli studi campione di chl ha portato a questa domanda.

Risposte:


19

Penso che sia utile rivedere ciò che sappiamo sulla convalida incrociata. I risultati statistici relativi al CV rientrano in due classi: efficienza e coerenza.

L'efficienza è ciò di cui ci preoccupiamo di solito quando si creano modelli predittivi. L'idea è che usiamo CV per determinare un modello con garanzie asintotiche riguardanti la funzione di perdita. Il risultato più famoso qui è dovuto a Stone 1977 e dimostra che LOO CV è asintoticamente equivalente a AIC. Ma Brett fornisce un buon esempio in cui è possibile trovare un modello predittivo che non ti informa sul meccanismo causale.

La coerenza è ciò di cui ci preoccupiamo se il nostro obiettivo è trovare il modello "vero". L'idea è che usiamo CV per determinare un modello con garanzie asintotiche che, dato che il nostro spazio modello include il modello vero, lo scopriremo con un campione abbastanza grande. Il risultato più famoso qui è dovuto a Shao 1993 riguardante i modelli lineari, ma come afferma nel suo abstract, la sua "scoperta scioccante" è opposta al risultato per LOO. Per i modelli lineari, è possibile ottenere coerenza utilizzando LKO CV fintanto che come n . Oltre ai mdoel lineari, è più difficile ricavare risultati statistici. k/n1n

Ma supponiamo che tu possa soddisfare i criteri di coerenza e che la tua procedura CV porti al vero modello: . Cosa abbiamo imparato sul meccanismo causale? Sappiamo semplicemente che esiste una correlazione ben definita tra Y e X , che non dice molto sulle affermazioni causali. Da una prospettiva tradizionale, è necessario introdurre un disegno sperimentale con il meccanismo di controllo / manipolazione per fare affermazioni causali. Dal punto di vista della struttura di Judea Pearl, puoi inserire ipotesi causali in un modello strutturale e utilizzare il calcolo basato sulla probabilità dei controfattuali per ricavare alcune affermazioni, ma dovrai soddisfare determinate proprietà . Y=βX+eYX

Forse potresti dire che il CV può aiutare con l'inferenza causale identificando il vero modello (purché tu possa soddisfare i criteri di coerenza!). Ma ti porta solo così lontano; Il CV di per sé non sta facendo alcun lavoro in nessuno dei due quadri dell'inferenza causale.

Se sei interessato a ciò che possiamo dire con la convalida incrociata, consiglierei Shao 1997 sull'articolo del 1993 ampiamente citato:

Puoi scorrere i risultati principali, ma è interessante leggere la discussione che segue. Pensavo che i commenti di Rao & Tibshirani e di Stone fossero particolarmente penetranti. Ma nota che mentre discutono di coerenza, non vengono mai fatte affermazioni sulla causalità.


Grazie per tutti i riferimenti, in particolare le risposte di Judea Pearl (dovrò comprare il libro basandomi su tutte le informazioni meravigliose in quei brevi saggi di risposta.)
Andy W

1
I commenti per il downvote sono sempre ben accetti!
chl

18

Questa è una domanda davvero interessante e non offro citazioni specifiche. Tuttavia, in generale, direi NO, in sé e per sé, la convalida incrociata non offre alcuna comprensione della causalità. In assenza di un esperimento progettato, il problema della causalità è sempre incerto. Come suggerisci, la convalida incrociata può e migliorerà la precisione predittiva. Questo, da solo, non dice nulla sulla causalità.

In assenza di un esperimento progettato, l'inferenza causale richiederebbe un modello che includa tutti i predittori rilevanti, cosa che raramente possiamo garantire in uno studio osservazionale. Inoltre, una semplice variabile di ritardo, ad esempio (o qualsiasi cosa fortemente correlata con qualsiasi risultato che stavamo cercando di prevedere) produrrebbe un buon modello e uno che potrebbe essere validato in più campioni. Ciò non significa, tuttavia, che possiamo dedurre la causalità. La convalida incrociata assicura la ripetibilità nelle previsioni e nient'altro. La causalità è una questione di design e logica.

EDIT: ecco un esempio per illustrare. Potrei costruire un modello con una buona precisione predittiva che prevede la popolazione di una città in base alla quantità di denaro che la città spende per la rimozione dei rifiuti. Potrei usare la convalida incrociata per testare l'accuratezza di quel modello e altri metodi per migliorare l'accuratezza della previsione e ottenere parametri più stabili. Ora, mentre questo modello funziona alla grande per la predizione, la logica causale è sbagliata - la direzione causale è invertita. Indipendentemente da ciò che potrebbe dire la gente del Dipartimento dei Lavori Pubblici, aumentare il budget per la rimozione dei rifiuti non sarebbe una buona strategia per aumentare la popolazione della città (l'interpretazione causale).

I problemi di accuratezza e ripetibilità di un modello sono separati dalla nostra capacità di fare inferenze causali sulle relazioni che osserviamo. La convalida incrociata ci aiuta con il primo e non con il secondo. Ora, SE stiamo stimando un modello "corretto" in termini di specifica di una relazione occasionale (ad esempio, cercando di determinare quale dovrebbe essere il nostro budget per la rimozione dei rifiuti in base alla nostra popolazione prevista il prossimo anno), la convalida incrociata può aiutarci ad avere maggiori fiducia nella nostra stima di tale effetto. Tuttavia, la convalida incrociata non fa nulla per aiutarci a scegliere il modello "corretto" in relazione alle relazioni causali. Ancora una volta, qui dobbiamo fare affidamento sulla progettazione dello studio, sulla nostra competenza in materia, teoria e logica.


1
Quindi non pensi che la ripetibilità nelle stime degli effetti possa essere utile? Sebbene tu non sia solo nella tua concezione di quale prova della causalità sia, penso che sia abbastanza stretta. Non saremo mai in grado di provare indefinitamente una relazione causale, anche con un esperimento, assente tutte le prove nell'universo. Quindi, a mio avviso, l'obiettivo è quello di offrire prove del fatto che qualsiasi relazione stimiamo è la più vicina alla verità, date le informazioni che conosciamo. Dato che non pensi che la ripetibilità nella previsione da un set di allenamento a un campione di controllo potrebbe essere un utile controllo delle inferenze fatte?
Andy W,

Apprezzo anche i tuoi commenti e concordo pienamente sul fatto che le inferenze dipendono fortemente dalla logica e dal design della ricerca.
Andy W,

1
Andy, ho modificato il mio post per rispondere ai tuoi commenti. Inoltre, non intendo suggerire che l'inferenza causale non possa essere fatta al di fuori del contesto di un esperimento progettato. Tuttavia, è più difficile e meno sicuro negli studi osservazionali e non dovremmo cercare di modellare le procedure per aiutarci a risolvere questo problema. Piuttosto, dovremmo cercare di capire meglio i problemi per i quali stiamo cercando di capire le relazioni causali.
Brett,

Concordo praticamente con tutto ciò che dici, tranne per il fatto che i problemi di accuratezza e ripetibilità sono essenziali per fare inferenze corrette di fronte al dubbio. Posso dare agli esperti il ​​vantaggio del dubbio che stanno costruendo modelli logici. Per quanto mi riguarda è la ripetibilità dei risultati in molti contesti osservativi. Anche se sono d'accordo che la ripetibilità non spiega necessariamente le influenze confuse che sono meglio affrontate in contesti sperimentali.
Andy W,

(+1) Le mie scuse. Sembra che abbia anche dimenticato di votare la tua bella risposta. Hai già votato i tuoi commenti utili.
chl

13

Mi sembra che la tua domanda affronti più in generale i diversi tipi di convalida per un modello predittivo: la convalida incrociata ha un po 'più a che fare con la validità interna , o almeno la fase di modellazione iniziale, mentre disegnare collegamenti causali su una popolazione più ampia è più correlato a validità esterna. Con ciò (e come aggiornamento dopo la bella osservazione di @ Brett), intendo che di solito costruiamo un modello su un campione funzionante, assumendo un ipotetico modello concettuale (cioè specificiamo le relazioni tra predittori e il risultato (i) di interesse), e cerchiamo di ottenere stime affidabili con un tasso di errore di classificazione minimo o un errore di previsione minimo. Si spera, migliore è il rendimento del modello, migliore ci permetterà di prevedere i risultati su dati invisibili; tuttavia, CV non dice nulla sulla "validità" o sull'adeguatezza dei collegamenti causali ipotizzati. Potremmo certamente ottenere risultati decenti con un modello in cui alcuni effetti di moderazione e / o mediazione vengono trascurati o semplicemente non conosciuti in anticipo.

Il mio punto è che qualunque sia il metodo che usi per convalidare il tuo modello (e il metodo di controllo non è certamente il migliore, ma è ancora ampiamente usato nello studio epidemiologico per alleviare i problemi derivanti dalla costruzione di modelli graduale), lavori con lo stesso campione (che supponiamo sia rappresentativo di una popolazione più ampia). Al contrario, la generalizzazione dei risultati e dei collegamenti causali dedotti in questo modo a nuovi campioni o ad una popolazione plausibilmente correlata viene di solito effettuata da studi di replicazione . Questo ci consente di testare in sicurezza l'abilità predittiva del nostro modello in una "superpopolazione" che presenta una gamma più ampia di variazioni individuali e può presentare altri potenziali fattori di interesse.

Il tuo modello potrebbe fornire previsioni valide per il tuo campione di lavoro e include tutti i potenziali confonditori a cui potresti aver pensato; tuttavia, è possibile che non funzionerà altrettanto bene con i nuovi dati, solo perché nel percorso causale intermedio compaiono altri fattori che non sono stati identificati durante la creazione del modello iniziale. Ciò può accadere se alcuni dei predittori e i collegamenti causali da essi dedotti dipendono dal particolare centro di sperimentazione in cui i pazienti sono stati reclutati, ad esempio.

Nell'epidemiologia genetica, molti studi di associazione su tutto il genoma non riescono a replicarsi solo perché stiamo cercando di modellare malattie complesse con una visione semplificata delle relazioni causali tra marcatori di DNA e fenotipo osservato, mentre è molto probabile che gene-gene (epistasi), malattie genetiche (pleiotropia), ambiente genico e sottostruttura della popolazione entrano in gioco, ma si vedano ad esempio la convalida, il potenziamento e il perfezionamento dei segnali di associazione a livello del genoma(Ioannidis et al., Nature Reviews Genetics, 2009 10). Quindi, possiamo costruire un modello performante per tenere conto delle variazioni incrociate osservate tra un insieme di marcatori genetici (con dimensioni dell'effetto molto basse e sparse) e un modello multivariato di fenotipi osservati (ad esempio, volume di sostanza bianca / grigia o attività localizzate nel cervello osservate attraverso la risonanza magnetica, le risposte alla valutazione neuropsicologica o all'inventario della personalità), tuttavia non funzionerà come previsto su un campione indipendente.

Per quanto riguarda un riferimento generale su questo argomento, posso consigliare il capitolo 17 e la parte III dei modelli di previsione clinica , di EW Steyerberg (Springer, 2009). Mi piace anche il seguente articolo di Ioannidi:

Ioannidis, JPA, Perché i risultati della ricerca più pubblicati sono falsi? PLoS Med. 2005 2 (8): e124


1
@chl: puoi spiegare la tua affermazione nel primo paragrafo sulla validità interna v. esterna? Nella tradizione che conosco: la validità interna si riferisce alla capacità di affermare relazioni di causa ed effetto tra le variabili all'interno del particolare campione; la validità esterna riguarda la capacità di generalizzare da un campione ad altre persone, luoghi e tempi. Tradizionalmente, la convalida incrociata riguarda quest'ultima e quindi la definizione di cui sopra sulla validità esterna, mentre si afferma che si tratta di validità interna. Ho frainteso la tua affermazione?
Brett,

1
@Brett Stavo pensando al CV come una tecnica statistica per evitare un eccesso di adattamento o per fornire una misura dell'accuratezza della previsione sul campione di lavoro (quindi non necessariamente uno strumento dedicato per dimostrare la validità interna). Non ero molto chiaro, grazie o indicandolo. Concordo sul fatto che questo viene quindi utilizzato per generalizzare il campione a portata di mano, ma lì penso che non abbia nulla a che fare con l'inferenza causale (il CV non dimostra nulla sui collegamenti causali come modellato sul campione di lavoro). Condivido la tua opinione sulla validità esterna, ma per dimostrarlo abbiamo bisogno di altri campioni, no?
chl

1
Potresti chiarire quel primo paragrafo. Penso che tu stia cercando di dire che il CV non ha validità interna. Questo è un problema per altri processi. Ma, se abbiamo una buona validità interna per altri motivi, qualunque esso sia, il CV aiuterà a stimare tale effetto in modo più accurato tra persone, luoghi e tempi, ovvero migliorare la validità esterna. Non riesco ancora a pensare a un modo in cui il CV ci aiuterebbe a fare affermazioni causali sulle relazioni tra variabili - la stessa domanda di validità interna - solo per aiutare a generalizzare una relazione causale stabilita.
Brett,

1
@Brett Penso che i tuoi commenti a questa domanda siano molto pertinenti e riassumano alcuni dei problemi molto bene. Dubito che a questo punto aiuterà qualsiasi confusione tra validità interna ed esterna, ma l'esempio di epidemiologia genetica di chl è in realtà un problema di validità interna e non di validità esterna (eccetto tra eterogeneità del set di dati (o sottostruttura della popolazione), ma che l'IMO è di meno preoccupazione della validità interna in questi esempi).
Andy W,

2
La definizione di Brett tra validità interna ed esterna è accurata, ma per i nostri scopi ci aiuterà a definirla in termini diversi. La validità esterna riguarda solo il campione e il modo in cui quel campione si collega ad altre popolazioni. La validità interna riguarda vari aspetti degli effetti stimati e dei costrutti utilizzati per stimare tali effetti.
Andy W,

12

Questa è una buona domanda, ma la risposta è decisamente no: la validazione incrociata non migliorerà l'inferenza causale. Se si dispone di una mappatura tra sintomi e malattie, la convalida incrociata contribuirà a garantire che il modello corrisponda meglio alla loro distribuzione articolare rispetto a se si fosse semplicemente adattato il modello all'intero set di dati non elaborati, ma non si può mai dire nulla su la direzionalità della causalità.

La convalida incrociata è molto importante e vale la pena studiare, ma non fa altro che impedirti di sovradimensionare il rumore nel tuo set di dati. Se vuoi capirlo di più, suggerirei il capitolo 7 di ESL: http://www-stat.stanford.edu/~hastie/Papers/ESLII.pdf


Grazie per il riferimento. Quindi, supponiamo che non ti preoccupi della selezione del modello, potrebbe essere utile la convalida incrociata delle stime degli effetti del set di dati di allenamento con il set di dati di controllo?
Andy W,

Potrebbe essere, ma direi che in pratica stai facendo bootstrap (o una sua variante).
John Myles White,

Sono d'accordo, penso e ci sono altre cose fatte regolarmente che riflettono questo stesso tipo di logica (come test di specificità del sottoinsieme o variabili dipendenti non equivalenti). Ho semplicemente posto la domanda perché immaginavo esistessero trattamenti più formali.
Andy W,

I commenti per il downvote sono sempre ben accetti!
chl

Questo libro è il dono che continua a dare!
hayd

6

Per rispondere al follow-up @Andy pubblicato come risposta qui ...

Sebbene non potessi dire quale stima sia corretta e quale sia falsa, l'incoerenza nelle stime di convinzione d'assalto e di pistola tra i due modelli mette in dubbio che uno dei due abbia un vero effetto causale sulla lunghezza della frase?

Penso che ciò che intendi sia la discrepanza nelle stime dei parametri ci dia motivo di credere che nessuna delle stime dei parametri rappresenti il ​​vero effetto causale. Sono d'accordo con questo, anche se avevamo già molte ragioni per essere scettici sul fatto che un tale modello avrebbe prodotto il vero effetto causale.

Ecco la mia opinione: i dati troppo adeguati sono una fonte di stime di parametri distorte e, senza motivo di ritenere che questo pregiudizio compensi altre fonti di pregiudizio nella stima di un particolare effetto causale, deve quindi essere meglio, in media, stimare gli effetti causali senza adattamento eccessivo dei dati. La convalida incrociata impedisce un eccesso di adattamento, quindi dovrebbe, in media, migliorare le stime degli effetti causali.

Ma se qualcuno sta cercando di convincermi a credere alla loro stima di un effetto causale dai dati osservativi, dimostrare che non hanno adattato eccessivamente i loro dati è una priorità bassa a meno che non abbia buone ragioni per sospettare che la loro strategia di modellistica abbia probabilmente over-fit.

Nelle applicazioni di scienze sociali con cui lavoro, sono molto più interessato a problemi sostanziali, problemi di misurazione e controlli di sensibilità. Con i controlli di sensibilità intendo stimare le variazioni del modello in cui i termini vengono aggiunti o rimossi e stimare i modelli con interazioni che consentono agli interessi di variare tra i sottogruppi. Quanto incidono queste modifiche al modello statistico sulla stima dei parametri che vogliamo interpretare in modo causale? Le discrepanze in questo parametro sono stimate tra le specifiche del modello o sottogruppi comprensibili in termini di storia causale che si sta tentando di raccontare o suggeriscono un effetto guidato da, ad esempio, la selezione.

In effetti, prima di eseguire queste specifiche alternative. Annota come pensi che cambierà la tua stima dei parametri. È fantastico se la tua stima dei parametri di interesse non varia molto tra i sottogruppi o le specifiche, nel contesto del mio lavoro, è più importante della convalida incrociata. Ma altre questioni sostanziali che influenzano la mia interpretazione sono ancora più importanti.


Grazie mille per il peso! La tua prospettiva pone certamente una motivazione molto diretta per la convalida incrociata in modelli causali che non mi ero mai formulato in modo convincente. IMO ti stai vendendo anche un po 'corto usando l'etichetta di over-fitting. Ad esempio, nel set esplorativo iniziale potrei osservare l'adattamento del modello tra le equazioni usando una variabile indipendente sulla scala iniziale rispetto alla scala del log. Decido che il modello con scala logaritmica si adatta meglio e quindi lo uso nel modello di controllo. Questo non sarebbe generalmente considerato eccessivo (scegliendo tra l'uno o l'altro), cont ...
Andy W,

ma rientra ancora nel paradigma che hai suggerito nel tuo paragrafo ecco il mio take.
Andy W,

5

Ringrazio tutti per le loro risposte, ma la domanda è cresciuta fino a diventare qualcosa che non intendevo, essendo principalmente un saggio sulla nozione generale di inferenza causale senza una risposta giusta.

Inizialmente intendevo la domanda per sondare il pubblico alla ricerca di esempi sull'uso della convalida incrociata per l'inferenza causale. Avevo supposto che esistessero tali metodi, dato che l'idea di utilizzare un campione di prova e tenere fuori il campione per valutare la ripetibilità delle stime degli effetti mi sembrava logica. Come notato da John, ciò che stavo suggerendo non è dissimile dal bootstrap e direi che assomiglia ad altri metodi che usiamo per convalidare risultati come test di specificità del sottoinsieme o variabili dipendenti non equivalenti (il bootstrap rilassa ipotesi parametriche di modelli e il sottoinsieme i test in modo più generale vengono utilizzati per verificare che i risultati siano logici in varie situazioni). Nessuno di questi metodi soddisfa nessuno degli altri criteri di risposta per l'inferenza causale, ma credo che siano ancora utili per l'inferenza causale.

Il commento di chl è corretto in quanto la mia affermazione sull'uso della validazione incrociata è un controllo sulla validità interna per aiutare nell'inferenza causale. Ma per ora chiedo di gettare via la distinzione tra validità interna ed esterna, poiché non fa nulla per favorire il dibattito. Nell'esempio di chl di ampi studi sul genoma in epidemiologia considererei un primo esempio di scarsa validità interna, rendendo intrinsecamente dubbie le forti inferenze. Penso che gli studi sull'associazione del genoma siano in realtà un esempio di ciò che ho chiesto. Pensi che le inferenze tra i geni e la malattia siano migliorate attraverso l'uso della validazione incrociata (invece di gettare tutti i marker in un modello e regolare i valori p di conseguenza?)

Di seguito ho incollato una copia di un tavolo nell'articolo di Berk che ho citato nella mia domanda. Mentre queste tabelle sono state mostrate per dimostrare la falsa logica dell'uso di criteri di selezione step-sise e inferenza causale sullo stesso modello, supponiamo che non siano stati utilizzati criteri di selezione del modello e che i parametri sia nell'allenamento che nel campione sono stati determinati a priori. Questo non mi sembra un risultato irrealistico. Sebbene non potessi dire quale stima sia corretta e quale sia falsa, l'incoerenza nelle stime di convinzione d'assalto e di pistola tra i due modelli mette in dubbio che uno dei due abbia un vero effetto causale sulla lunghezza della frase? Conoscere questa variazione non è utile? Se non perdiamo nulla avendo un campione di prova per testare il nostro modello, perché non possiamo usare la convalida incrociata per migliorare l'inferenza causale (o mi manca ciò che stiamo perdendo usando un campione di tenuta?) testo alternativo


1
Una nota sul perché questo è stato sottoposto a downgrade sarebbe gradita.
Andy W,

2
In secondo luogo, @Andy, suggerirò di lasciare un commento durante il downvoting: è sempre utile sapere se c'è qualcosa che non va. Soprattutto in questo caso: Andy W è tornato con commenti estesi in CW che, a mio avviso, aggiungono ulteriore supporto alla domanda originale. Non c'è bisogno di sottovalutare nulla qui!
chl

1
L'intervallo di errore / confidenza standard non ti dà già questa indicazione di variabilità? le stime del set di test sono contenute negli intervalli di confidenza standard del set di allenamento. Avrei pensato che piccoli errori standard e IC ristretti fossero importanti per la causalità.
probabilityislogic

Sì @probabilityislogic hai ragione. Credo che quando ho sottolineato questo punto non fosse destinato a una situazione in cui si applica il CV a un set di dati già disponibile, ma a un set di dati raccolto in un altro momento. Ho pensato che CV potesse essere utile qui per rafforzare le dichiarazioni causali, ma non è ancora chiaro per me se è così. Ho visto che è probabilmente utile in termini di selezione del modello, non convalidare il modello in alcun modo (ad es. Il mio modello su questi nuovi dati produce una corrispondenza molto stretta).
Andy W,


1

Immagino che questo sia un modo intuitivo di pensare alla relazione tra CV e inferenza causale: (per favore correggi se sbaglio)

Penso sempre al CV come a un modo per valutare le prestazioni di un modello nelle previsioni. Tuttavia, nell'inferenza causale siamo più preoccupati di qualcosa di equivalente al rasoio di Occam (parsimonia), quindi CV non aiuta.

Grazie.


Il motivo per cui ho posto la domanda è perché non dobbiamo pensare alla validazione incrociata esclusivamente come un modo per valutare un'abilità predittiva dei modelli. Non è raro preoccuparsi che i risultati di un modello (e quindi le inferenze fatte) siano artefatti per molte potenziali ragioni. Quindi vogliamo esaminare la solidità dei risultati e ho pensato che la validazione incrociata potesse essere un contesto utile per esaminare la solidità dei risultati.
Andy W,

scusa per l'interpretazione errata.
suncoolsu,

Non c'è bisogno di scuse. Sono io a suggerire qualcosa di apparentemente marginale, e apparentemente la convalida incrociata è sempre usata nel contesto che suggerisci.
Andy W,

@suncoolsu, Quando sto pensando all'inferenza causale, non mi preoccupo mai del rasoio di Occam o della parsimonia, potresti spiegarmi la connessione?
Michael Bishop,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.