Lo affronterò dalla direzione alternativa della filosofia, alla luce dei principi veramente utili di Uncertainty Management discussi nei libri di George F. Klir su set sfocati. Non posso dare l'esattezza di van der Laan, ma posso fornire un caso un po 'esaustivo sul perché il suo obiettivo è logicamente impossibile; questo richiederà una lunga discussione che fa riferimento ad altri campi, quindi abbiate pazienza.
Klir e i suoi co-autori dividono l'incertezza in diversi sottotipi, come la non specificità (cioè quando si ha un insieme sconosciuto di alternative, affrontato attraverso mezzi come la Funzione Hartley); imprecisione nelle definizioni (ovvero "sfocatura" modellata e quantificata in insiemi sfocati); conflitto o discordanza in evidenza (affrontato nella teoria delle prove di Dempster-Shafer); oltre alla teoria delle probabilità, teoria delle possibilità e incertezza di misura, in cui l'obiettivo è avere un ambito adeguato per acquisire le prove pertinenti, riducendo al minimo gli errori. Vedo l'intera cassetta degli attrezzi delle tecniche statistiche come mezzo alternativo per dividere l'incertezza in diversi modi, proprio come un tagliabiscotti; gli intervalli di confidenza e i valori p mettono in quarantena l'incertezza in un modo, mentre misure come l'entropia di Shannon la riducono da un'altra angolazione. Quello che possono ' tuttavia, è eliminarlo del tutto. Per ottenere un "modello esatto" del tipo che Van Der Laan sembra descrivere, dovremmo ridurre a zero tutti questi tipi di incertezza, in modo da non lasciare più nulla da dividere. Un modello veramente "esatto" avrebbe sempre valori di probabilità e possibilità pari a 1, punteggi di non specificità pari a 0 e nessuna incertezza nelle definizioni di termini, intervalli di valori o scale di misurazione. Non ci sarebbe discordia in fonti alternative di prova. Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente dividono la loro incertezza nel futuro, ma non ne rimarrebbe nessuno. La prospettiva dell'incertezza ha alcune importanti implicazioni: del tipo di van der Laan che sembra descrivere, dovremmo ridurre a zero tutti questi tipi di incertezza, in modo da non lasciare più nulla da dividere. Un modello veramente "esatto" avrebbe sempre valori di probabilità e possibilità pari a 1, punteggi di non specificità pari a 0 e nessuna incertezza nelle definizioni di termini, intervalli di valori o scale di misurazione. Non ci sarebbe discordia in fonti alternative di prova. Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente ripartiscono la loro incertezza nel futuro, ma non rimarrebbe nessuno da rimandare. La prospettiva dell'incertezza ha alcune importanti implicazioni: del tipo di van der Laan che sembra descrivere, dovremmo ridurre a zero tutti questi tipi di incertezza, in modo da non lasciare più nulla da dividere. Un modello veramente "esatto" avrebbe sempre valori di probabilità e possibilità pari a 1, punteggi di non specificità pari a 0 e nessuna incertezza nelle definizioni di termini, intervalli di valori o scale di misurazione. Non ci sarebbe discordia in fonti alternative di prova. Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente ripartiscono la loro incertezza nel futuro, ma non rimarrebbe nessuno da rimandare. La prospettiva dell'incertezza ha alcune importanti implicazioni: Un modello veramente "esatto" avrebbe sempre valori di probabilità e possibilità pari a 1, punteggi di non specificità pari a 0 e nessuna incertezza nelle definizioni di termini, intervalli di valori o scale di misurazione. Non ci sarebbe discordia in fonti alternative di prova. Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente dividono la loro incertezza nel futuro, ma non ne rimarrebbe nessuno. La prospettiva dell'incertezza ha alcune importanti implicazioni: Un modello veramente "esatto" avrebbe sempre valori di probabilità e possibilità pari a 1, punteggi di non specificità pari a 0 e nessuna incertezza nelle definizioni di termini, intervalli di valori o scale di misurazione. Non ci sarebbe discordia in fonti alternative di prova. Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente dividono la loro incertezza nel futuro, ma non ne rimarrebbe nessuno. La prospettiva dell'incertezza ha alcune importanti implicazioni: Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente ripartiscono la loro incertezza nel futuro, ma non rimarrebbe nessuno da rimandare. La prospettiva dell'incertezza ha alcune importanti implicazioni: Le previsioni fatte da un tale modello sarebbero sempre accurate al 100 percento; i modelli predittivi essenzialmente dividono la loro incertezza nel futuro, ma non ne rimarrebbe nessuno. La prospettiva dell'incertezza ha alcune importanti implicazioni:
• Questo ordine elevato non è solo fisicamente non plausibile, ma in realtà logicamente impossibile. Ovviamente, non possiamo ottenere scale di misura perfettamente continue con gradi infinitesimali, raccogliendo osservazioni finite usando apparecchiature scientifiche fallibili; ci sarà sempre qualche incertezza in termini di scala di misurazione. Allo stesso modo, ci sarà sempre un po 'di confusione attorno alle stesse definizioni che impieghiamo nei nostri esperimenti. Anche il futuro è intrinsecamente incerto, quindi le previsioni apparentemente perfette dei nostri modelli "esatti" dovranno essere trattate come imperfette fino a prova contraria - il che richiederebbe un'eternità.
• A peggiorare le cose, nessuna tecnica di misurazione è esente da errori al 100% ad un certo punto del processo, né può essere resa sufficientemente completa da comprendere tutte le informazioni eventualmente in conflitto nell'universo. Inoltre, l'eliminazione di possibili variabili confondenti e la completa indipendenza condizionale non possono essere provate completamente senza esaminare tutti gli altri processi fisici che influenzano quello che stiamo esaminando, così come quelli che influenzano questi processi secondari e così via.
• L'esattezza è possibile solo nella pura logica e nel suo sottoinsieme, la matematica, proprio perché le astrazioni sono divorziate da preoccupazioni del mondo reale come queste fonti di incertezza. Ad esempio, per pura logica deduttiva, possiamo dimostrare che 2 + 2 = 4 e qualsiasi altra risposta è errata al 100%. Possiamo anche fare previsioni perfettamente accurate che sarà sempre uguale a 4. Questo tipo di precisione è possibile solo nelle statistiche quando abbiamo a che fare con le astrazioni. La statistica è incredibilmente utile quando viene applicata al mondo reale, ma la stessa cosa che lo rende utile inietta almeno un certo grado di inevitabile incertezza, rendendola così inesatta. È un dilemma inevitabile.
• Inoltre, Peter Chu pone ulteriori limitazioni nella sezione commenti dell'articolo a cui è collegato rvl. Lo mette meglio di me:
"Questa superficie di soluzione di problemi NP-difficili è in genere piena di molti optima locali e nella maggior parte dei casi è computazionalmente impossibile risolvere il problema, cioè trovare la soluzione ottimale globale in generale. Pertanto, ogni modellista utilizza alcune tecniche (euristiche) di modellizzazione, nella migliore delle ipotesi, trovare adeguate soluzioni locali ottimali nel vasto spazio di soluzione di questa complessa funzione oggettiva. "
• Tutto ciò significa che la scienza stessa non può essere perfettamente accurata, anche se van der Laan sembra parlarne in questo modo nel suo articolo; il metodo scientifico come processo astratto è precisamente definibile, ma l'impossibilità di una misurazione esatta universale e perfetta significa che non può produrre modelli esatti privi di incertezza. La scienza è un ottimo strumento, ma ha dei limiti.
• Peggiora da lì: anche se fosse possibile misurare esattamente tutte le forze che agiscono su ogni quark e gluone costituenti nell'universo, alcune incertezze rimarrebbero comunque . Innanzitutto, qualsiasi previsione fatta da un modello così completo sarebbe ancora incerta a causa dell'esistenza di soluzioni multiple per equazioni quintiche e polinomi superiori. In secondo luogo, non possiamo essere completamente certi che l'estremo scetticismo incarnato nella classica domanda "forse questo è tutto un sogno o un'allucinazione" non è un riflesso della realtà - nel qual caso tutti i nostri modelli sono effettivamente sbagliati nel peggior modo possibile . Ciò equivale sostanzialmente a un'interpretazione ontologica più estrema delle originali formulazioni epistemologiche di filosofie come il fenomenismo, l'idealismo e il solipsismo.
• Nella sua ortodossia classica del 1909GK Chesterton ha osservato che le versioni estreme di queste filosofie possono davvero essere giudicate, ma se guidano o meno i loro credenti nelle istituzioni mentali; il solipsismo ontologico, ad esempio, è in realtà un indicatore della schizofrenia, come lo sono alcuni dei suoi cugini. Il meglio che possiamo ottenere in questo mondo è eliminare ogni ragionevole dubbio; un irragionevole dubbio di questo tipo inquietante non può essere rigorosamente eliminato, anche in un ipotetico mondo di modelli esatti, misurazioni esaustive e prive di errori. Se van der Laan mira a liberarci di irragionevoli dubbi, allora sta giocando con il fuoco. Afferrando alla perfezione, il bene finito che possiamo fare scivolerà tra le dita; siamo creature finite che esistono in un mondo infinito, il che significa che il tipo di conoscenza completa e assolutamente certa per cui van der Laan sostiene è permanentemente al di là della nostra comprensione. L'unico modo in cui possiamo raggiungere quel tipo di certezza è ritirandoci da quel mondo nei confini più ristretti di quello perfettamente astratto che chiamiamo "matematica pura". Ciò non significa, tuttavia, che un ritiro nella matematica pura sia la soluzione per eliminare l'incertezza. Questo era essenzialmente l'approccio adottato dai successori di Ludwig Wittgenstein (1889-1951), che prosciugò la sua filosofia di positivismo logico di qualunque senso comune avesse rifiutando del tutto la metafisica e ritirandosi interamente nella pura matematica e nello scientismo, nonché in estremo scetticismo, specializzazione eccessiva e eccessiva enfasi sull'esattezza sull'utilità. Nel processo, hanno distrutto la disciplina della filosofia dissolvendola in una massa di scrupoli sulle definizioni e sullo sguardo dell'ombelico, rendendola così irrilevante per il resto del mondo accademico. Ciò essenzialmente uccise l'intera disciplina, che era stata in prima linea nel dibattito accademico fino all'inizio del XX secolo, al punto da attirare ancora l'attenzione dei media e alcuni dei suoi leader erano nomi familiari. Hanno afferrato una spiegazione perfetta e raffinata del mondo e questo è scivolato tra le loro dita - proprio come ha fatto attraverso i pazienti mentali di cui parlava GKC. Scapperà anche dalla stretta di van der Laan, che ha già smentito il suo punto, come discusso di seguito. La ricerca di modelli troppo esatti non è semplicemente impossibile; può essere pericoloso, se portato al punto di ossessionarsi. La ricerca di quel tipo di purezza raramente finisce bene; è spesso autolesionista come quei germofobi che si lavano le mani così furiosamente da finire con ferite che vengono infettate. E' s ricorda Icaro che cerca di rubare il fuoco dal Sole: come esseri finiti, possiamo avere solo una comprensione finita delle cose. Come dice anche Chesterton nell'Ortodossia, "È il logico che cerca di ottenere i cieli nella sua testa. Ed è la sua testa che si divide".
Alla luce di quanto sopra, vorrei affrontare alcune delle domande specifiche elencate da rvl:
1) Un modello senza assunzioni di qualsiasi tipo o a) non è a conoscenza delle proprie ipotesi o b) deve essere nettamente separato da considerazioni che introducono incertezza, come errori di misurazione, tenendo conto di ogni singola possibile variabile confondente, scale di misurazione perfettamente continue e piace.
2) Sono ancora un principiante quando si tratta della stima della massima verosimiglianza (MLE), quindi non posso commentare i meccanismi della verosimiglianza target, se non per sottolineare l'ovvio: la verosimiglianza è proprio questo, una verosimiglianza, non una certezza . Derivare un modello esatto richiede la completa eliminazione dell'incertezza, cosa che la logica probabilistica raramente può fare, se non mai.
3) Certo che no. Dato che tutti i modelli conservano una certa incertezza e sono quindi inesatti (tranne nei casi di matematica pura, divorziati dalle misurazioni fisiche del mondo reale), la razza umana non sarebbe stata in grado di fare alcun progresso tecnologico fino ad oggi - o in effetti, nessun altro progresso a tutti. Se i modelli inesatti fossero sempre inutili, avremmo avuto questa conversazione in una caverna, invece che su questa incredibile prodezza della tecnologia chiamata Internet, il tutto reso possibile dalla modellazione inesatta.
Ironia della sorte, il modello di van der Laan è un esempio primario di inesattezza. Il suo stesso articolo delinea una sorta di modello di come dovrebbe essere gestito il campo statistico, con l'obiettivo di modelli esatti; non ci sono ancora numeri associati a questo "modello", nessuna misura di quanto siano inesatti o inutili la maggior parte dei modelli ora a suo avviso, nessuna quantificazione di quanto siamo lontani dalla sua visione, ma suppongo che si possano escogitare test per quelle cose . Allo stato attuale, tuttavia, il suo modello è inesatto. Se non è utile, significa che il suo punto è sbagliato; se è utile, sconfigge il suo punto principale che i modelli inesatti non sono utili. Ad ogni modo, confuta la propria tesi.
4) Probabilmente no, perché non possiamo avere informazioni complete per testare il nostro modello, per le stesse ragioni per cui non possiamo derivare un modello esatto in primo luogo. Un modello esatto richiederebbe per definizione una perfetta prevedibilità, ma anche se i primi 100 test risultano accurati al 100%, il 101 ° potrebbe non esserlo. Quindi c'è l'intero problema delle scale di misurazione infinitesime. Successivamente, entriamo in tutte le altre fonti di incertezza, che contamineranno qualsiasi valutazione della Torre d'Avorio del nostro modello di Torre d'Avorio.
5) Per affrontare il problema, ho dovuto inserirlo nel più ampio contesto di questioni filosofiche molto più grandi che sono spesso controverse, quindi non penso che sia possibile discuterne senza entrare in opinioni (notare come questo di per sé sia un altro fonte di incertezza) ma hai ragione, questo articolo merita una risposta. Molto di ciò che dice su altri argomenti è sulla buona strada, come la necessità di rendere le statistiche pertinenti ai Big Data, ma c'è un po 'di estremismo impreciso mescolato lì che dovrebbe essere corretto.