Chi per primo ha usato / inventato i valori p?


30

Sto tentando di scrivere una serie di post sul blog sui valori-p e ho pensato che sarebbe stato interessante tornare a dove tutto ha avuto inizio, che sembra essere il documento di Pearson del 1900. Se hai familiarità con quel documento, ti ricorderai che questo copre i test di bontà di adattamento.

Pearson è un po 'lento con il suo linguaggio quando si tratta di valori p. Usa ripetutamente le "probabilità" per descrivere come interpretare il suo valore p. Ad esempio, a p.168 quando si parla dei risultati dei tiri ripetuti di 12 dadi, dice " ... che ci porta a P = .0000016, oppure le probabilità sono 62.499 a 1 contro un tale sistema di deviazione su un casuale selezione. Con tali probabilità sarebbe ragionevole concludere che i dadi mostrano una tendenza verso i punti più alti. "

In questo articolo, fa riferimento a lavori precedenti, tra cui un libro del 1891 su minimi quadrati di Merriman.

Ma Pearson espone il calcolo per i valori di p (bontà chi-quadrata dei test di adattamento).

Pearson è stata la prima persona a concepire i valori p? Quando faccio una ricerca sui valori di p, viene menzionato Fisher - e il suo lavoro risale agli anni '20.

A cura di: e un grazie per la menzione di Laplace - non sembrava rispondere all'ipotesi nulla (Pearson sembra farlo in modo implicito, sebbene non abbia mai usato quel termine nel suo articolo del 1900). Pearson ha esaminato la bontà dei test di adattamento da: supponendo che i conteggi siano derivati ​​da un processo imparziale, qual è la probabilità che i conteggi osservati (e conteggi più devianti) derivino dalla distribuzione ipotizzata?

Il suo trattamento delle probabilità / probabilità (converte le probabilità in probabilità) suggerisce che sta lavorando con un'idea implicita dell'ipotesi nulla. Fondamentalmente, menziona anche che la probabilità derivante dal valore x ^ 2 mostra le probabilità "contro un sistema di deviazioni improbabile o più improbabile di questo" - linguaggio che riconosciamo ora - rispetto ai suoi valori p calcolati.

Arbuthnot è andato così lontano?

Sentiti libero di inserire i tuoi commenti come risposte. Sarebbe bello vedere una discussione.


7
Questo articolo suggerisce che è stato utilizzato da Laplace, che avrebbe fissato un limite inferiore: en.wikipedia.org/wiki/…

9
Si potrebbe sostenere che Arbuthnot (1710) in An Argument for Divine Providence, tratto dalla costante regolarità osservata nelle nascite di entrambi i sessi, potrebbe forse contare. Usa un modello di moneta ('croce e pila'), e prima calcola la probabilità di ottenere esattamente quante teste e code prima di sottolineare che le "possibilità accadranno in alcuni dei Termini accanto a quello centrale e si appoggeranno a uno parte o l'altra. Ma è molto improbabile (se fosse governata la semplice possibilità) che non arriverebbero mai fino alle Estremità "; possiamo vederlo avvicinarsi alla nozione di un valore p lì.
Glen_b

4
Curiosamente David nella sua lista jstor.org/stable/2685564?seq=1#page_scan_tab_contents suggerisce che il termine P-value sia stato usato per la prima volta nel 1943 da Deming nel suo libro "Aggiustamento statistico dei dati". So che stai cercando il concetto non il termine, ma ho trovato interessante vedere quando il termine è finalmente apparso.
mdewey,

2
Chi ha inventato potrebbe essere difficile da scoprire. Ma chi è la colpa per l'uso corrente dei valori di p è sicuramente Fisher.
Carlos Cinelli,

1
Definiamo il valore p come "la probabilità di ottenere un risultato entro un certo intervallo (spesso un valore o più estremo per una statistica calcolata come quella usata da Pearson nel 1900) dato che una certa ipotesi è giusta"?
Sesto Empirico

Risposte:


19

Jacob Bernoulli (~ 1700) - John Arbuthnot (1710) - Nicolaus Bernoulli (1710s) - Abraham de Moivre (1718)

Il caso di Arbuthnot 1, vedi la spiegazione nella nota seguente , può anche essere letto nella Dottrina della probabilità di de Moivre (1718) da pagina 251-254 che estende ulteriormente questa linea di pensiero.

De Moivre compie due passaggi / avanzamenti:

  1. L'approssimazione normale di una distribuzione di Bernoulli, che aiuta a calcolare facilmente le probabilità che i risultati si trovino all'interno o all'esterno di un certo intervallo. Nella sezione prima dell'esempio sul caso di Arbuthnot, de Moivre scrive della sua approssimazione (ora chiamata distribuzione gaussiana / normale) per la distribuzione di Bernoulli. Questa approssimazione consente di calcolare facilmente un valore p (cosa che Arbuthnot non ha potuto fare).

  2. Generalizzazione dell'argomento di Arbuthnot. Egli afferma che "questo metodo di ragionamento può anche essere utilmente applicato in alcune altre indagini molto interessanti". (che può dare credito parziale a de Moivre per aver visto l'applicabilità generale dell'argomento)


  • Secondo de Moivre, Jacob Bernoulli scrisse di questo problema nel suo Ars Conjectandi . De Moivre lo chiama in inglese "Assegnando i limiti entro i quali, con la ripetizione di esperimenti, la probabilità di un evento può avvicinarsi indefinitamente a una probabilità data", ma il testo originale di Bernouilli è in latino. Non conosco abbastanza il latino per essere in grado di capire se Bernoulli stava scrivendo su un concetto come il valore p o più simile alla legge dei grandi numeri. È interessante notare che Bernouilli afferma di avere avuto queste idee per 20 anni (e anche il lavoro del 1713 fu pubblicato dopo la sua morte nel 1705, quindi sembra precedere la data del 1710 menzionata nei commenti di @Glen_b per Arbuthnot).

  • Una fonte d'ispirazione per de Moivre fu Nicolaus Bernouilli, che nel 1712/1713 fece i calcoli per la probabilità che il numero di ragazzi nati non fosse inferiore a 7037 e non superiore a 7363, quando 14000 è il numero di bambini nati e la probabilità per un ragazzo è di 18/35.

    (I numeri per questo problema erano basati su 80 anni di statistiche per Londra. Ne scrisse in lettere a Pierre Raymond de Montmort pubblicate nella seconda edizione (1713) dell'Essay d'analyse sur les jeux de hazard di Montmort .)

    I calcoli, che non ho seguito del tutto, hanno prodotto una probabilità di 43,58 a 1. (Utilizzando un computer che somma la probabilità di tutti i termini di un binomio da 7037 a 7363 ottengo 175: 1, quindi potrei aver frainteso il suo lavoro / calcolo. )


1: John Arbuthnot scrisse di questo caso in Un argomento per la divina provvidenza, tratto dalla costante regolarità osservata nelle nascite di entrambi i sessi (1710).

1282~14836000000000000000000000

Arbuthnot: allora la probabilità di A sarà vicina a una quantità infinitamente piccola, almeno inferiore a qualsiasi frazione assegnabile. Da cui ne consegue che è l'Arte, non il Caso che governa.


Scritto da StackExchangeStrike


Forse una storia di probabilità inversa di Andrew Dale può aiutare di più. (Alla ricerca della traduzione di Bernoulli ho scoperto che ha tradotto il passaggio pertinente menzionato da de Moivre). All'inizio questa probabilità inversa, ora considerata più una tecnica bayesiana, avrebbe potuto essere uno strumento piuttosto frequente nell'interpretazione e nell'uso.
Sesto Empirico

3

Ho tre link / argomenti di supporto che supportano la data ~ 1600-1650 per le statistiche formalmente sviluppate e molto prima per il semplice utilizzo delle probabilità.

Se si accetta il test delle ipotesi come base, che precede la probabilità, il Dizionario etimologico online offre questo:

" ipotesi (n.)

1590s, "una dichiarazione particolare;" 1650, "una proposizione, assunta e data per scontata, usata come premessa", dall'ipotesi della Francia centrale e direttamente dall'ipotesi del tardo latino, dall'ipotesi greca "base, fondamento, fondamento", quindi in uso esteso "base di un argomento, supposizione, "letteralmente" una collocazione sotto, "da hypo-" sotto "(vedi ipo) + tesi" una collocazione, proposizione "(dalla forma riduplicata della radice della Torta * dhe-" impostare, mettere "). Un termine in logica; il senso scientifico più ristretto risale al 1640 ".

Offerte Wikizionario :

"Registrato dal 1596, dall'ipotesi della Francia centrale, dall'ipotesi del tardo latino, dal greco antico ὑπόθεσις (hupóthesis," base, base di un argomento, supposizione "), letteralmente" una collocazione sotto ", a sua volta da ὑποτίθημι (hupotíthēmi," ho impostato prima, suggerisci "), da ὑπό (hupó," sotto ") + τίθημι (títhēmi," I put, place ").

Ipotesi di nome (ipotesi plurale)

(scienze) Usato vagamente, una congettura provvisoria che spiega un'osservazione, un fenomeno o un problema scientifico che può essere testato da ulteriori osservazioni, indagini e / o sperimentazioni. Come termine scientifico dell'arte, vedi la citazione allegata. Confronta con la teoria e la citazione fornita lì. citazioni ▲

  • 2005, Ronald H. Pine, http://www.csicop.org/specialarticles/show/intelligent_design_or_no_model_creationism , 15 ottobre 2005:

    A troppi di noi è stato insegnato a scuola che uno scienziato, nel tentativo di capire qualcosa, presenterà prima una "ipotesi" (un'ipotesi o una supposizione, non necessariamente neppure un'ipotesi "istruita"). ... [Ma] la parola "ipotesi" dovrebbe essere usata, nella scienza, esclusivamente per una spiegazione ragionata, sensata, informata sulla conoscenza del perché esiste o si verifica un fenomeno. Un'ipotesi può essere ancora non testata; può essere già stato testato; potrebbe essere stato falsificato; potrebbe non essere stato ancora falsificato, sebbene testato; o potrebbe essere stato testato in una miriade di modi innumerevoli volte senza essere falsificato; e può venire universalmente accettato dalla comunità scientifica. La comprensione della parola "ipotesi", come usata nella scienza, richiede una comprensione dei principi alla base di Occam ' s Il pensiero di Razor e Karl Popper in merito alla "falsificabilità", compresa l'idea secondo cui ogni ipotesi scientifica rispettabile deve, in linea di principio, essere "capace di" essere smentita (se, in realtà, dovesse capitare di essere sbagliata), ma nessuno può mai essere dimostrato essere vero. Un aspetto di una corretta comprensione della parola "ipotesi", come usata nella scienza, è che solo una percentuale minuscola di ipotesi potrebbe mai potenzialmente diventare una teoria ".

Su probabilità e statistiche Wikipedia offre:

" Raccolta dati

campionatura

Quando non è possibile raccogliere dati completi sul censimento, gli statistici raccolgono dati campione sviluppando progetti di esperimenti specifici e campioni di sondaggi. La stessa statistica fornisce anche strumenti per la previsione e la previsione attraverso modelli statistici. L'idea di fare inferenze sulla base di dati campionati è iniziata intorno alla metà del 1600 in relazione alla stima delle popolazioni e allo sviluppo di precursori dell'assicurazione sulla vita . (Riferimento: Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082. ISBN 1-57955-008-8).

Per utilizzare un campione come guida per un'intera popolazione, è importante che rappresenti veramente l'intera popolazione. Il campionamento rappresentativo assicura che inferenze e conclusioni possano estendersi in modo sicuro dal campione all'intera popolazione. Un grave problema sta nel determinare in che misura il campione scelto è effettivamente rappresentativo. La statistica offre metodi per stimare e correggere eventuali distorsioni all'interno delle procedure di campionamento e raccolta dei dati. Esistono anche metodi di progettazione sperimentale per esperimenti che possono ridurre questi problemi all'inizio di uno studio, rafforzando la sua capacità di discernere verità sulla popolazione.

La teoria del campionamento fa parte della disciplina matematica della teoria della probabilità. La probabilità viene utilizzata nelle statistiche matematiche per studiare le distribuzioni campionarie delle statistiche campionarie e, più in generale, le proprietà delle procedure statistiche. L'uso di qualsiasi metodo statistico è valido quando il sistema o la popolazione in esame soddisfano i presupposti del metodo. La differenza di punto di vista tra la teoria della probabilità classica e la teoria del campionamento è, approssimativamente, che la teoria della probabilità parte dai parametri dati di una popolazione totale per dedurre le probabilità relative ai campioni. L'inferenza statistica, tuttavia, si muove nella direzione opposta, inferendo induttivamente dai campioni ai parametri di una popolazione più ampia o totale .

Da "Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082.":

" Analisi statistica

• Storia. Alcuni calcoli delle probabilità per i giochi d'azzardo erano già stati fatti nell'antichità. A partire dal 1200 circa risultati sempre più elaborati basati sull'enumerazione combinatoria delle probabilità furono ottenuti da mistici e matematici, con metodi sistematicamente corretti sviluppati nella metà del 1600 e nei primi anni del 1700. L'idea di fare inferenze dai dati campionati sorse a metà del 1600 in relazione alla stima delle popolazioni e allo sviluppo di precursori dell'assicurazione sulla vita. Il metodo di media per correggere quelli che si presumeva fossero errori casuali di osservazione iniziò ad essere utilizzato, principalmente in astronomia, a metà del 1700, mentre intorno al 1800 si stabilirono i minimi quadrati e la nozione di distribuzioni di probabilità. Modelli probabilistici basati su Le variazioni casuali tra individui iniziarono ad essere utilizzate in biologia a metà del 1800 e molti dei metodi classici ora usati per l'analisi statistica furono sviluppati alla fine del 1800 e all'inizio del 1900 nel contesto della ricerca agricola. In fisica i modelli fondamentalmente probabilistici erano fondamentali per l'introduzione della meccanica statistica alla fine del 1800 e della meccanica quantistica nei primi anni del 1900.

Altre fonti:

"Questo rapporto, principalmente in termini non matematici, definisce il valore p, sintetizza le origini storiche dell'approccio del valore p ai test di ipotesi, descrive varie applicazioni di p≤0,05 nel contesto della ricerca clinica e discute l'emergere di p≤ 5 × 10−8 e altri valori come soglie per analisi statistiche genomiche. "

La sezione "Origini storiche" afferma:

[1]

[1]. Arbuthnott J. Un argomento per la divina Provvidenza, tratto dalla costante regolarità osservata nelle nascite di entrambi i sessi. Phil Trans 1710; 27: 186–90. doi: 10.1098 / rstl.1710.0011 pubblicato il 1 gennaio 1710

1-45-78910,11

Offrirò solo una difesa limitata dei valori P. ... ".

Riferimenti

1 Hald A. A history of probability and statistics and their appli- cations before 1750. New York: Wiley, 1990.
2 Shoesmith E, Arbuthnot, J. In: Johnson, NL, Kotz, S, editors. Leading personalities in statistical sciences. New York: Wiley, 1997:7–10. 
3 Bernoulli, D. Sur le probleme propose pour la seconde fois par l’Acadamie Royale des Sciences de Paris. In: Speiser D,
editor. Die Werke von Daniel Bernoulli, Band 3, Basle:
Birkhauser Verlag, 1987:303–26. 
4 Arbuthnot J. An argument for divine providence taken from
the constant regularity observ’d in the births of both sexes. Phil Trans R Soc 1710;27:186–90. 
5 Freeman P. The role of P-values in analysing trial results. Statist Med 1993;12:1443 –52. 
6 Anscombe FJ. The summarizing of clinical experiments by
significance levels. Statist Med 1990;9:703 –8.
7 Royall R. The effect of sample size on the meaning of signifi- cance tests. Am Stat 1986;40:313 –5.
8 Senn SJ. Discussion of Freeman’s paper. Statist Med
1993;12:1453 –8.
9 Gardner M, Altman D. Statistics with confidence. Br Med J
1989.
10 Matthews R. The great health hoax. Sunday Telegraph 13
September, 1998. 
11 Matthews R. Flukes and flaws. Prospect 20–24, November 1998.

@Martijn Weterings : "Pearson nel 1900 è stato il risveglio o questo concetto (frequentista) è apparso prima? In che modo Jacob Bernoulli pensava al suo" teorema d'oro "in senso frequentista o Bayesiano (cosa dicono e sono gli Ars Conjectandi ci sono più fonti)?

L'American Statistical Association ha una pagina web sulla storia delle statistiche che, insieme a queste informazioni, ha un poster (riprodotto in parte sotto) intitolato "Cronologia delle statistiche".

  • 2 d.C .: sopravvive la prova di un censimento completato durante la dinastia Han.

  • 1500: Girolamo Cardano calcola le probabilità di diversi tiri di dado.

  • 1600: Edmund Halley mette in relazione il tasso di mortalità con l'età e sviluppa tabelle di mortalità.

  • 1700: Thomas Jefferson dirige il primo censimento degli Stati Uniti.

  • 1839: viene fondata l'American Statistical Association.

  • 1894: il termine "deviazione standard" viene introdotto da Karl Pearson.

  • 1935: RA Fisher pubblica Design of Experiments.

Cronologia parziale delle statistiche

Nella sezione "Storia" della pagina web di Wikipedia " Legge sui grandi numeri " si spiega:

"Il matematico italiano Gerolamo Cardano (1501-1576)ha dichiarato senza prove che l'accuratezza delle statistiche empiriche tende a migliorare con il numero di prove. Questo è stato poi formalizzato come una legge di grandi numeri. Una forma speciale di LLN (per una variabile casuale binaria) fu inizialmente dimostrata da Jacob Bernoulli. Gli ci vollero più di 20 anni per sviluppare una dimostrazione matematica sufficientemente rigorosa che fu pubblicata nel suo Ars Conjectandi (L'arte della congettura) nel 1713. Lo chiamò "Teorema d'oro", ma divenne generalmente noto come "Teorema di Bernoulli". Ciò non deve essere confuso con il principio di Bernoulli, intitolato al nipote Daniel Bernoulli di Jacob Bernoulli. Nel 1837, SD Poisson lo descrisse ulteriormente con il nome "la loi des grands nombres" ("La legge dei grandi numeri"). Successivamente, è stato conosciuto con entrambi i nomi, ma il "

Dopo che Bernoulli e Poisson pubblicarono i loro sforzi, anche altri matematici contribuirono al perfezionamento della legge, tra cui Chebyshev, Markov, Borel, Cantelli e Kolmogorov e Khinchin. ".


Domanda: "Pearson è stata la prima persona a concepire i valori p?"

No, probabilmente no.

In " La dichiarazione dell'ASA sui valori p: contesto, processo e scopo " (09 giu 2016) di Wasserstein e Lazar, doi: 10.1080 / 00031305.2016.1154108 c'è una dichiarazione ufficiale sulla definizione del valore p (che non è dubbio non concordato da tutte le discipline che utilizzano o rifiutano valori p) che recita:

" . Che cos'è un valore p?

Informalmente, un valore p è la probabilità secondo un modello statistico specificato che un riassunto statistico dei dati (ad esempio, la differenza media del campione tra due gruppi confrontati) sarebbe uguale o più estremo del suo valore osservato.

3. Principi

...

6. Di per sé, un valore di p non fornisce una buona misura di prove riguardanti un modello o un'ipotesi.

I ricercatori dovrebbero riconoscere che un valore p senza contesto o altre prove fornisce informazioni limitate. Ad esempio, un valore di p vicino a 0,05 preso da solo offre solo prove deboli contro l'ipotesi nulla. Allo stesso modo, un valore p relativamente grande non implica prove a favore dell'ipotesi nulla; molte altre ipotesi possono essere uguali o più coerenti con i dati osservati. Per questi motivi, l'analisi dei dati non dovrebbe concludersi con il calcolo di un valore p quando altri approcci sono appropriati e fattibili. ".

Il rifiuto dell'ipotesi nulla probabilmente si è verificato molto prima di Pearson.

La pagina di Wikipedia sui primi esempi di test di ipotesi nulla afferma:

Prime scelte di ipotesi nulla

Paul Meehl ha sostenuto che l'importanza epistemologica della scelta dell'ipotesi nulla è in gran parte sconosciuta. Quando l'ipotesi nulla è prevista dalla teoria, un esperimento più preciso sarà un test più severo della teoria sottostante. Quando l'ipotesi nulla di default è "nessuna differenza" o "nessun effetto", un esperimento più preciso è un test meno severo della teoria che ha motivato l'esecuzione dell'esperimento. Un esame delle origini di quest'ultima pratica può quindi essere utile:

1778: Pierre Laplace confronta i tassi di natalità di ragazzi e ragazze in diverse città europee. Egli afferma: "è naturale concludere che queste possibilità sono quasi nella stessa proporzione". Così l'ipotesi nulla di Laplace secondo cui i tassi di natalità di ragazzi e ragazze dovrebbero essere uguali data la "saggezza convenzionale".

1900: Karl Pearson sviluppa il test del chi quadrato per determinare "se una data forma di curva di frequenza descriverà efficacemente i campioni prelevati da una data popolazione". Quindi l'ipotesi nulla è che una popolazione sia descritta da una distribuzione prevista dalla teoria. Usa come esempio i numeri di cinque e sei nei dati di lancio dei dadi di Weldon.

1904: Karl Pearson sviluppa il concetto di "contingenza" al fine di determinare se i risultati sono indipendenti da un determinato fattore categorico. Qui l'ipotesi nulla è di default che due cose non sono correlate (ad es. Formazione di cicatrici e tassi di mortalità per vaiolo). L'ipotesi nulla in questo caso non è più prevista dalla teoria o dalla saggezza convenzionale, ma è invece il principio di indifferenza che porta Fisher e altri a respingere l'uso di "probabilità inverse".

Nonostante a qualcuno venga riconosciuto il merito di aver respinto un'ipotesi nulla, non credo sia ragionevole etichettarli come " scoperta dello scetticismo basato su una debole posizione matematica".


Ho cercato l'opera di Daniel Bernouilli (la seconda edizione è del 1808 ma l'opera stessa è del 1734) "RICERCA FISICA E ASTRONOMIA, probabilmente la proposta è proposta per l'Académie Royale des Sciences de Paris: Quelle est la Sciences causa il fisico dell'inclinazione dei piani degli Orbiti dei Piani rispetto al piano dell'Equatore della rivoluzione del Soleil, il figlio dell'ascia; e poi vieni con le inclinazioni dei suoi Orbiti su diverse differenze . ch / zut / wihibe / content / titleinfo / 13426461
Empirico

1:175
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.