I ricercatori precedenti non hanno rilevato la mano calda semplicemente a causa di un errore statistico?


11

Molti fan / giocatori di pallacanestro credono che dopo aver effettuato diversi tiri di fila, il colpo successivo abbia maggiori probabilità di entrare. Questa è a volte chiamata la mano calda.

A partire (penso) con Gilovich, Mallone e Tversky (1985) , è stato "dimostrato" che si trattava in realtà di un errore. Anche se sono stati effettuati diversi tiri di fila, il colpo successivo non ha più probabilità di entrare rispetto a quanto impone la percentuale media di tiro.

Miller e Sanjurjo (2015) sostengono che la mano calda esiste davvero e che i precedenti ricercatori erano semplicemente caduti in preda a un errore statistico di base. Il loro argomento è qualcosa del genere:

Lancia una moneta quattro volte. Calcola la probabilità che H segua H. Per fornire alcuni esempi: HHTT avrebbe probabilità 1/2, HTHT avrebbe probabilità 0/2, TTHH avrebbe probabilità 0/1 1/1 e sia TTTT che TTTH sarebbero NA

La battuta finale di Miller e Sanjurjo è che il valore atteso di questa probabilità non è 0,5, ma ≈0,4. E l'errore commesso da precedenti ricercatori è stato presumere erroneamente che il valore atteso di questa probabilità sia 0,5. Quindi, se ad esempio questi precedenti ricercatori hanno condotto l'esperimento di lancio della moneta sopra e hanno trovato la probabilità media di essere 0,497, hanno erroneamente concluso che non vi era alcuna prova di una mano calda (non significativamente diversa da 0,5), quando in realtà c'era molto forte evidenza di una mano calda (significativamente diversa da 0.4).

La mia domanda è questa: Miller e Sanjurjo hanno ragione sul fatto che precedenti ricercatori non sono riusciti a rilevare la mano calda semplicemente a causa di questo errore? Ho sfogliato solo uno o due articoli su questo, quindi volevo ottenere una conferma da qualcuno qui che potesse conoscere meglio questa letteratura. Sembra un errore sorprendentemente sciocco persistere per tre o più decenni.


3
Questa è una domanda pericolosa per questo sito, nel senso che è abbastanza difficile da valutare, specialmente per gli estranei. Ed è così che "determiniamo" le risposte migliori, votando a maggioranza. Assicurati di leggere tutte le risposte, e vota in alto solo quelle che sembrano corrette dopo averle lette tutte, e vota in basso quelle che ti lasciano insoddisfatto / sospetto.
FooBar,

1
Questo perché la risposta corretta potrebbe essere controintuitiva. Se un sito del genere esistesse 60 anni fa, non credo che la risposta corretta al problema di Monty Hall - che ha proprietà simili - arriverebbe in cima con il voto a maggioranza.
FooBar,

@FooBar, per aggiungere al tuo punto, ci sono due domande complicate che si svolgono contemporaneamente qui: (1) "Qual è l'effetto matematico di cui Miller e Sanjuro discutono" --- questa non è la domanda che Kenny LJ ha posto, ma è un bella domanda perché ci vuole molta lettura per capire ed è relativamente oggettiva. Quindi (2) è "Se questa invalida ricerca precedente", che sembra soggettiva e basata sull'opinione ....
usul

@usul: In alcuni casi in economia quella seconda domanda ("Questo invalida la ricerca precedente?") è in effetti più controversa e basata sull'opinione pubblica - ad esempio la controversia sul documento di Reinhart e Rogoff (2010). Ma penso che in questo caso abbiamo un problema matematico chiaramente definito. E come ho cercato di mostrare nella mia risposta di seguito (che ho appena riscritto ancora una volta per chiarezza e brevità), Miller e Sanjurjo (2015) riescono davvero a invalidare le conclusioni di Gilovich, Mallone e Tversky (1985).
Kenny LJ,

@KennyLJ, hanno dimostrato che una delle prove del documento del 1985 non è valida. Questa è una domanda molto diversa dal mostrare che la conclusione non è valida, ad esempio mostrando che esiste sicuramente un effetto a mano calda.
usul

Risposte:


6

(Questa risposta è stata completamente riscritta per maggiore chiarezza e leggibilità a luglio 2017.)

Lancia una moneta 100 volte di fila.

Esamina il capovolgimento immediatamente dopo una serie di tre code. Let p ( H | 3 T ) sia la percentuale di lanci della moneta dopo ogni striscia di tre code di fila che sono teste. Analogamente, lasciate p ( H | 3 H ) sia la percentuale di lanci della moneta dopo ogni striscia di tre teste di fila che sono teste. ( Esempio in fondo a questa risposta. )p^(H|3T)p^(H|3H)

Let .x:=p^(H|3H)p^(H|3T)

Se i gettoni sono iid, quindi "ovviamente", attraverso molte sequenze di 100 gettoni,

(1) Si prevede che accada spesso quanto x < 0 .x>0x<0

(2) .E(X)=0

Generiamo un milione di sequenze di 100 gettoni e otteniamo i seguenti due risultati:

(I) verifica approssimativamente tutte le volte che x < 0 .x>0x<0

(II) ( ˉ x è la media di x attraverso il milione di sequenze).x¯0x¯x

E così concludiamo che i lanci di monete sono davvero iid e non ci sono prove di una mano calda. Questo è ciò che ha fatto GVT (1985) (ma con colpi di pallacanestro al posto di lanci di monete). Ed è così che hanno concluso che la mano calda non esiste.


Punchline: Incredibilmente, (1) e (2) non sono corretti. Se i lanci di monete sono iid, allora dovrebbe essere quello

x>0x<0x=0x

E(X)0.08

L'intuizione (o contro-intuizione) in questione è simile a quella di molti altri famosi puzzle di probabilità: il problema di Monty Hall, il problema dei due ragazzi e il principio della scelta limitata (nel bridge del gioco di carte). Questa risposta è già abbastanza lunga e quindi salterò la spiegazione di questa intuizione.

E così i risultati (I) e (II) ottenuti da GVT (1985) sono in realtà prove evidenti a favore della mano calda. Questo è ciò che Miller e Sanjurjo (2015) hanno mostrato.


Ulteriore analisi della tabella 4 di GVT.

Molti (ad es. @Scerwin in basso) hanno - senza preoccuparsi di leggere GVT (1985) - espresso incredulità sul fatto che qualsiasi "statistico addestrato avrebbe mai" prendere una media delle medie in questo contesto.

Ma questo è esattamente ciò che GVT (1985) ha fatto nella sua Tabella 4. Vedi la sua Tabella 4, colonne 2-4 e 5-6, riga inferiore. Lo trovano in media tra i 26 giocatori,

p^(H|1M)0.47p^(H|1H)0.48

p^(H|2M)0.47p^(H|2H)0.49

p^(H|3M)0.45p^(H|3H)0.49

k=1,2,3p^(H|kH)>p^(H|kM)

Ma se invece di prendere la media delle medie (una mossa ritenuta incredibilmente stupida da alcuni), ripetiamo la loro analisi e aggregiamo tra i 26 giocatori (100 colpi per ciascuno, con alcune eccezioni), otteniamo la seguente tabella di medie ponderate.

Any                     1175/2515 = 0.4672

3 misses in a row       161/400 = 0.4025
3 hits in a row         179/313 = 0.5719

2 misses in a row       315/719 = 0.4381
2 hits in a row         316/581 = 0.5439        

1 miss in a row         592/1317 = 0.4495
1 hit in a row          581/1150 = 0.5052

Il tavolo dice, ad esempio, che un totale di 2.515 colpi sono stati effettuati dai 26 giocatori, di cui 1.175 o 46,72%.

E dei 400 casi in cui un giocatore ha perso 3 di fila, il 161 o il 40,25% è stato immediatamente seguito da un colpo. E dei 313 casi in cui un giocatore ha colpito 3 di fila, il 179 o il 57,19% sono stati immediatamente seguiti da un colpo.

Le medie ponderate sopra sembrano essere prove evidenti a favore della mano calda.

Tieni presente che l'esperimento di tiro è stato impostato in modo che ogni giocatore stesse sparando da dove era stato stabilito che potesse effettuare circa il 50% dei suoi colpi.

(Nota: abbastanza "Stranamente", nella Tabella 1 per un'analisi molto simile con le riprese in-game di Sixers, GVT presenta invece le medie ponderate. Quindi perché non hanno fatto lo stesso per la Tabella 4? certamente ha calcolato le medie ponderate per la Tabella 4 - i numeri che presento sopra, non mi è piaciuto quello che hanno visto e hanno scelto di sopprimerli. Questo tipo di comportamento è sfortunatamente alla pari del corso in ambito accademico.)


HHHTTTHHHHHHp^(H|3T)=1/1=1

p^(H|3H)=91/920.989


La tabella 4 di PS GVT (1985) contiene numerosi errori. Ho individuato almeno due errori di arrotondamento. E anche per il giocatore 10, i valori tra parentesi nelle colonne 4 e 6 non si sommano a uno in meno di quello nella colonna 5 (contrariamente alla nota in fondo). Ho contattato Gilovich (Tversky è morto e Vallone non ne sono sicuro), ma sfortunatamente non ha più le sequenze originali di successi e mancanze. La tabella 4 è tutto ciò che abbiamo.


Guardando la tabella 4 del GMT 1985, hanno testato 26 singoli studenti e hanno trovato solo un esempio di "mano calda" statisticamente significativa (hanno verificato ogni caso con p <0,05). Questo è l' effetto jelly bean verde . A parte questo, se ogni studente fosse stato posizionato con precisione in modo tale da poter effettuare circa il 50% dei suoi tiri, molti meno di 7 degli studenti avrebbero dovuto avere tassi di colpi al di fuori di un intervallo 40-60 su 100 (a meno che c'è un enorme effetto mano calda)
Henry,

4

(Dichiarazione di non responsabilità: non conosco questa letteratura.) Mi sembra che Miller e Sanjurjo abbiano una valida critica di una particolare misura statistica. Non so se questo dovrebbe essere considerato come invalidare tutti i lavori precedenti sull'effetto mano calda, poiché si concentrano solo su questa particolare misura.

La misura è

M:=P(make shot | made previous shot)P(make shot | miss previous shot)
P(X)X

MEM>0EM=0

EM<0M

M


3

Nessuno dei due documenti è sufficientemente chiaro per quanto riguarda le loro applicazioni di Statistica, quindi in questa risposta cercherò di chiarire.

Gilovich, Mallone e Tversky (1985) nel loro Abstract definiscono "l'effetto Hot-Hand" come segue:

" Sia i giocatori di basket che i fan tendono a credere che le possibilità di un giocatore di colpire un tiro siano maggiori dopo un colpo che dopo un mancato colpo precedente. "

kHkkMk

(1)P(HHk)>P(HMk),k1

dove per compattezza, resta inteso che il tiro in questione è quello immediatamente successivo ai successi o ai colpi sequenziali. Queste sono probabilità condizionali teoriche (cioè costanti), non frequenze empiriche relative condizionali.

P^(HHk),P^(HMk)

Ho:P(HHk)P(HMk)=0

P(H)

TP^(HHk)P^(HMk)

T

T

Pertanto, se si verifica un problema con Gilovich et al. carta, non è la definizione della mano calda, non è la formulazione dell'ipotesi nulla, non è la selezione della statistica da utilizzare: è la validità dei valori critici utilizzati per eseguire i test ( e quindi dell'assunto distributivo implicito), se la distribuzione finita a piccoli campioni (sotto l'ipotesi nulla) è visibilmente non centrata su zero e anche asimmetrica.

In questi casi, ciò che si fa di solito è ottenere mediante simulazione valori critici speciali per eseguire il test (ricordare ad esempio i valori critici speciali per il test Dickey-Fuller per una radice unitaria). Non sono riuscito a vedere un simile approccio nel documento Miller-Sanjurjo, invece, eseguono un "aggiustamento del bias medio" e trovo che dopo questo aggiustamento la conclusione del test sia invertita. Non sono sicuro che questa sia la strada da percorrere.

200n=100p=0.5
T3=P^(HH3)P^(HM3)0.08070.07262.5%dei valori essendo negativi. L'istogramma empirico è

inserisci qui la descrizione dell'immagine


1

A mio avviso, Miller e Sanjurjo hanno semplicemente calcolato erroneamente le frequenze relative nella Tabella 1. La loro tabella è mostrata sotto con due nuove colonne aggiunte, che contano il numero di sottosequenze HH e HT che si verificano all'interno di ciascuna sequenza di 4 gettoni. Per ottenere la probabilità condizionale desiderata p (H | H) è necessario sommare questi conteggi N (HH) e N (HT) e quindi dividere come mostrato di seguito. In questo modo si ottiene p (H | H) = 0,5, come previsto. Per qualche ragione, Miller e Sanjurjo hanno prima calcolato la frequenza relativa per ciascuna sequenza e quindi una media delle sequenze. È solo sbagliato.

Sequence     Subsequences       N(HH) N(HT)    p(H|H)
TTTT  ->  TT.. , .TT. , ..TT      0     0        -  
TTTH  ->  TT.. , .TT. , ..TH      0     0        -  
TTHT  ->  TT.. , .TH. , ..HT      0     1       0.0 
THTT  ->  TH.. , .HT. , ..TT      0     1       0.0 
HTTT  ->  HT.. , .TT. , ..TT      0     1       0.0 
TTHH  ->  TT.. , .TH. , ..HH      1     0       1.0 
THTH  ->  TH.. , .HT. , ..TH      0     1       0.0 
THHT  ->  TH.. , .HH. , ..HT      1     1       0.5 
HTTH  ->  HT.. , .TT. , ..TH      0     1       0.0 
HTHT  ->  HT.. , .TH. , ..HT      0     2       0.0 
HHTT  ->  HH.. , .HT. , ..TT      1     1       0.5 
THHH  ->  TH.. , .HH. , ..HH      2     0       1.0 
HTHH  ->  HT.. , .TH. , ..HH      1     1       0.5 
HHTH  ->  HH.. , .HT. , ..TH      1     1       0.5 
HHHT  ->  HH.. , .HH. , ..HT      2     1       0.66
HHHH  ->  HH.. , .HH. , ..HH      3     0       1.0 
                                 --    --       ----
                                 12    12       0.40
                            p(H|H)=N(HH)/N(H*)
                                  =12/(12+12)
                                  =0.5

Il loro argomento è che invece di calcolare le singole occorrenze TT e TH (come hai fatto tu), è necessario fare una media delle probabilità p (H | H) (perché tutte le sequenze sono ugualmente probabili).
Giskard,

1
Forse una tabella più semplice renderà il loro errore più evidente. Consentiamo solo due sequenze particolari a 4 lanci: TTHT e HHHH. Queste forniscono le seguenti sottosequenze a 2 inversioni: TT, TH, HT, HH, HH, HH. Da questo elenco è abbastanza ovvio che quando la prima moneta lanciata mostra H, è molto probabile che sia seguita da un'altra H (questo accade 3 volte su 4). Piuttosto una "moneta calda" davvero! Ma il metodo di Miller e Sanjurjo non prevede affatto il riscaldamento, poiché la media delle frequenze per TTHT e HHHH (0,0 e 1,0) è 0,5. D'altra parte, il solito metodo dà la risposta giusta: p (H | H) = 3 / (3 + 1) = 0,75.
scerwin,

Penso che il loro punto sia che questo "errore" che lei sottolinea sia stato esattamente quello che hanno fatto i ricercatori precedenti.
Kenny LJ,

1
Può essere. Ma questa affermazione sui precedenti ricercatori è corretta? Nessuno statistico addestrato calcolerebbe mai una probabilità come fecero Miller e Sanjurjo nella Tabella 1. È analogo al calcolo della media battuta di un giocatore di baseball calcolando prima la sua media per ogni partita e poi calcolando la media delle partite. È semplicemente sbagliato.
scerwin,

"Ma questa affermazione sui precedenti ricercatori è corretta? Nessuno statistico esperto avrebbe mai calcolato una probabilità come Miller e Sanjurjo hanno fatto nella Tabella 1." Forse dovresti davvero prenderti il ​​tempo di leggere i documenti in questione. Soprattutto GVT (1985).
Kenny LJ,

0

In qualsiasi sequenza osservata, l'ultimo condizionale è "mancante", nel senso che in seguito non ha più valore. Gli autori si occupano di questo semplicemente ignorando i casi in cui ciò accade, dicendo che non sono definiti. Se la serie è breve, questa scelta avrà un evidente impatto sui calcoli. La figura 1 è una bella illustrazione di questa idea.


-1

Ho intenzione di cambiare un commento che ho fatto sopra per una risposta, e rivendicare la risposta alla domanda originale è che i documenti originali sono corretti. Gli autori dell'articolo del 2015 lanciano sequenze che dovrebbero essere logicamente incluse nella loro analisi, come descrivo nel commento, e quindi introducono un pregiudizio a sostegno delle loro affermazioni. Il mondo funziona come dovrebbe.

Addendum in risposta al commento: esaminiamo la tabella 1 nel documento. Vediamo che stiamo lanciando 4 valori dall'ultima colonna, quindi per ottenere la differenza prevista abbiamo solo una media di 12 delle 16 sequenze. Se consideriamo queste probabilità come frequenze e diciamo, per la prima riga TTTT, qual è la frequenza con cui una testa segue una testa, allora logicamente succede sempre e dovremmo mettere un 1 nella p (H, H ), non un trattino. Lo facciamo per le altre tre sequenze che abbiamo buttato fuori e concludiamo che il valore atteso della differenza è 0, non -.33. Non possiamo semplicemente lanciare dati del genere, quando esiste una chiara interpretazione logica dei dati.

Nota che per far svanire la deriva, dobbiamo calcolare correttamente le probabilità, cosa che non è stata fatta nel documento. Le probabilità nella tabella sono dichiarate come "la probabilità che una testa segua una coda, in questa data sequenza di quattro tiri". E vediamo che per la riga TTTH, dovremmo credere che la probabilità sia 1/3. Non è. Ci sono quattro tiri nella fila, e uno dei quattro tiri in quella fila è l'evento "una testa segue una coda". La probabilità è 1/4. Quindi calcola correttamente le probabilità e usa tutte le righe e otterrai la risposta che è stata accettata per 30 anni.


La domanda è se Miller e Sanjurjo (2015) hanno ragione nel sottolineare che i precedenti ricercatori hanno commesso un errore (e quindi non sono riusciti a rilevare la mano calda). In tal caso, ti preghiamo di spiegare. In caso contrario, si prega di spiegare anche. La domanda non è se possiamo o meno "semplicemente lanciare dati del genere" o se "il mondo funziona come dovrebbe".
Kenny LJ,

Miller e Sanjuro non sono corretti, perché scaricano dati che logicamente appartengono all'analisi e quindi introducono un pregiudizio che non è nel mondo.
user164740
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.