Puoi dire che la statistica e la probabilità sono come l'induzione e la detrazione?


17

Ho letto questo thread e mi sembra che si possa dire che:

  • statistiche = induzione?
  • probabilità = detrazione?

Ma mi chiedo se potrebbero esserci ulteriori dettagli sul confronto che mi manca. Ad esempio, la statistica è uguale all'induzione o ne è solo un caso particolare? Sembra che la probabilità sia un sotto-caso di deduzione (dal momento che è un sotto-caso di pensiero matematico).

So che questa è una domanda esigente, ma in un certo senso è per questo che la sto chiedendo, perché voglio essere sicuro di come questi termini possano essere confrontati accuratamente.


Non perché risponde alla tua domanda ma perché sono collegati: stats.stackexchange.com/questions/665/… (Mi piace molto la risposta di Mark / Peter) e stats.stackexchange.com/questions/2641/…
robin girard

Risposte:


15

Penso che sia meglio riassumere rapidamente il significato del ragionamento induttivo e deduttivo prima di rispondere alla tua domanda.

  • Ragionamento deduttivo: "Gli argomenti deduttivi sono tentativi di dimostrare che una conclusione segue necessariamente da una serie di premesse. Un argomento deduttivo è valido se la conclusione segue necessariamente dalle premesse, cioè se la conclusione deve essere vera a condizione che le premesse siano vere Un argomento deduttivo è valido se è valido e le sue premesse sono vere. Gli argomenti deduttivi sono validi o non validi, sani o non fondati, ma non sono mai falsi o veri. " ( citato da Wikipedia , enfasi aggiunta).

  • "Il ragionamento induttivo, noto anche come induzione o logica induttiva, o ipotesi educata nell'inglese colloquiale, è un tipo di ragionamento che consente la possibilità che la conclusione sia falsa anche quando tutte le premesse sono vere. Le premesse di un argomento logico induttivo indica un certo grado di supporto (probabilità induttiva) per la conclusione ma non la implica; cioè, non garantiscono la sua verità. "( da Wikipedia , enfasi aggiunta)

Per sottolineare la differenza principale: mentre il ragionamento deduttivo trasferisce la verità dalle premesse alle conclusioni, il ragionamento induttivo no. Cioè, mentre per il ragionamento deduttivo non devi mai ampliare le tue conoscenze (cioè, tutto è nei locali, ma a volte nascosto e deve essere dimostrato tramite prove), il ragionamento induttivo ti consente di ampliare le tue conoscenze (cioè, puoi acquisire nuove intuizioni che non sono già contenuti nei locali, tuttavia, per il costo di non conoscere la loro verità).

In che modo ciò si riferisce alla probabilità e alle statistiche?

Ai miei occhi, la probabilità è necessariamente deduttiva. È un ramo della matematica. Quindi sulla base di alcuni assiomi o idee (presumibilmente veri) deduce teorie.

Tuttavia, le statistiche non sono necessariamente induttive. Solo se provi a usarlo per generare conoscenza su entità non osservate (ad es., Perseguendo statistiche inferenziali, vedi anche la risposta di onestop). Tuttavia, se si utilizzano le statistiche per descrivere il campione (ad es. Statistiche decriptative) o se si è campionato l'intera popolazione, è comunque deduttiva in quanto non si ottengono ulteriori conoscenze o informazioni in quanto già presenti nel campione.

Quindi, se pensi alle statistiche come allo sforzo eroico degli scienziati che cercano di usare metodi matematici per trovare regolarità che governano l'interazione delle entità empiriche nel mondo, che in realtà non ha mai successo (cioè, non sapremo mai davvero se delle nostre teorie è vera), quindi sì, questa è l'induzione. È anche il metodo scientifico articolato da Francis Bacon, su cui si fonda la moderna scienza empirica. Il metodo porta a conclusioni induttive che, nella migliore delle ipotesi, sono altamente probabili, sebbene non certe. Ciò a sua volta porta a fraintendimenti tra i non scienziati sul significato di una teoria scientifica e di una prova scientifica.


Aggiornamento: dopo aver letto la risposta di Coniugato Prior (e dopo aver riflettuto un po 'durante la notte) vorrei aggiungere qualcosa. Penso che la domanda se il ragionamento statistico (inferenziale) sia deduttivo o induttivo dipende da cosa esattamente ti interessa, cioè da quale tipo di conclusione stai cercando.

Se sei interessato a conclusioni probabilistiche, il ragionamento statistico è deduttivo. Ciò significa, se si desidera sapere se, ad esempio, in 95 casi su 100 il valore della popolazione rientra in un determinato intervallo (ovvero, intervallo di confidenza), è possibile ottenere un valore di verità (vero o non vero) per questa affermazione. Si può dire (se le ipotesi sono vere) che è il caso che in 95 casi su 100 il valore della popolazione rientri nell'intervallo. Tuttavia, in nessun caso empirico saprai se il valore della popolazione è nell'IC ottenuto. O lo è o no, ma non c'è modo di esserne sicuri. Lo stesso ragionamento vale per le probabilità nel valore p classico e nelle statistiche bayesiane. Puoi essere sicuro delle probabilità.

Tuttavia, se sei interessato a conclusioni su entità empiriche (ad esempio, dove si trova il valore della popolazione) puoi solo discutere induttivo. Puoi usare tutti i metodi statistici disponibili per accumulare prove a supporto di certe proposizioni sulle entità empiriche o sui meccanismi causali con cui interagiscono. Ma non sarai mai sicuro su nessuna di queste proposizioni.

Ricapitolando: il punto che voglio sottolineare è importante per quello che stai cercando. Probabilità che puoi dedurre, ma per ogni proposizione definita sulle cose puoi trovare prove a favore. Non di più. Vedi anche il link di onestop al problema dell'induzione.


Grazie Henrik - la distinzione tra le definizioni (e le tue opinioni su di esse) è stata utile.
Tal Galili,

Il tuo aggiornamento è stato chiaro e preciso. Se avessi potuto dartene un altro (+1), lo avrei fatto.
Tal Galili,

7

La statistica è l'approccio deduttivo all'induzione. Considera i due principali approcci all'inferenza statistica: frequentista e bayesiano.

Supponi di essere un frequentatore (nello stile di Fisher, piuttosto che di Neyman per comodità). Ti chiedi se un parametro di interesse sostanziale abbia un valore particolare, quindi costruisci un modello, scegli una statistica relativa al parametro ed esegui un test. Il valore p generato dal tuo test indica la probabilità di vedere una statistica come o più estrema della statistica calcolata dal campione che hai, supponendo che il tuo modello sia corretto. Ottieni un valore p abbastanza piccolo da rifiutare l'ipotesi che il parametro prenda quel valore. Il tuo ragionamento è deduttivo: supponendo che il modello sia corretto, o il parametro prende davvero il valore dell'interesse sostanziale ma il tuo è un campione improbabile da vedere, o in realtà non prende quel valore.

Passando dal test di ipotesi agli intervalli di confidenza: hai un intervallo di confidenza del 95% per il tuo parametro che non contiene il valore interesse sostanziale. Il tuo ragionamento è di nuovo deduttivo: supponendo che il modello sia corretto, o questo è uno di quei rari intervalli che appariranno 1 su 20 volte quando il parametro ha davvero il valore di interesse sostanziale (perché il tuo campione è improbabile), oppure il il parametro in realtà non ha quel valore.

Ora supponi di essere un bayesiano (nello stile di Laplace piuttosto che di Gelman). I presupposti e i calcoli del modello forniscono una distribuzione di probabilità (posteriore) sul valore del parametro. Gran parte della massa di questa distribuzione è lontana dal valore dell'interesse sostanziale, quindi si conclude che il parametro probabilmente non ha questo valore. Il tuo ragionamento è di nuovo deduttivo: supponendo che il tuo modello sia corretto e se la distribuzione precedente rappresentava le tue convinzioni sul parametro, le tue credenze su di esso alla luce dei dati sono descritte dalla tua distribuzione posteriore che mette pochissima probabilità su quel valore. Poiché questa distribuzione offre poco supporto per il valore dell'interesse sostanziale, è possibile concludere che il parametro non ha effettivamente il valore. (O potresti accontentarti di dichiarare la probabilità che lo faccia).

In tutti e tre i casi si ottiene una disgiunzione logica su cui basare la propria azione da cui deriva deduttivamente / matematicamente dalle ipotesi. Queste ipotesi di solito riguardano un modello di come vengono generati i dati, ma possono anche essere credenze precedenti su altre quantità.


1
Grazie CP, fai un punto interessante. Anche se, dal punto di vista della risposta di Henrik sopra, sei ancora nel regno dell'induttivo, poiché il ragionamento statistico che descrivi è uno che implica incertezza.
Tal Galili,

Si prega di consultare l'aggiornamento (si spera comprensibile) alla mia risposta, in cui provo a risolvere il problema sollevato qui.
Henrik,

@Henrik Questo è più chiaro (almeno per me). Solo un po 'di confusione: non è del tutto vero che "lo stesso ragionamento si applica alle probabilità nel valore p classico e nelle statistiche bayesiane". Quest'ultimo ti darà probabilità di singolo evento, ad esempio la probabilità che la vera media sia tra un certo valore e un altro valore (anche se tutti gli altri avvertimenti si applicano tutti) mentre i metodi frequentatori "classici" come gli intervalli di confidenza non lo faranno nemmeno, nonostante il affezionata e diffusa speranza che lo facciano. La loro interpretazione è davvero come la descrivi.
conjugateprior,

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.