Soluzione al problema del serbatoio tedesco


10

Esiste una prova matematica formale che la soluzione al problema del serbatoio tedesco è una funzione dei soli parametri k (numero di campioni osservati) e m (valore massimo tra i campioni osservati)? In altre parole, si può dimostrare che la soluzione è indipendente dagli altri valori campione oltre al valore massimo?


3
Quello che stai chiedendo è come mostrare che il massimo del campione è sufficiente per il parametro specifica il limite superiore di una distribuzione uniforme discreta da 1 a . θθθ
Scortchi - Ripristina Monica

2
Teorema di fattorizzazione di Fisher Neyman La funzione di probabilità, probabilità del campioni osservati (riassunti dal massimo ) dati i parametri (il numero di serbatoi) può essere completamente scritta in termini di e \ Pr (M = m | n , k) = \ begin {casi} 0 & \ text {if} m> n \\ \ frac {\ binom {m - 1} {k - 1}} {\ binom nk} & \ text {if} m \ leq n, \ end {case} Sarebbe una risposta? m n k mkmnkm
Pr(M=m|n,k)={0if m>n(m1k1)(nk)if mn,
Sisto Empirico

@Scortchi è corretto, grazie per averlo riformulato in modo più chiaro per me.
Bogdan Alexandru,

@MartijnWeterings no; essenzialmente sto chiedendo (citando il commento di Scortchi sopra) una prova che il massimo del campione è sufficiente per la soluzione senza effettivamente calcolare la soluzione.
Bogdan Alexandru,

Quindi non stai cercando il teorema di fattorizzazione di Fisher Neyman come prova?
Sesto Empirico

Risposte:


15

Probabilità

Problemi comuni nella teoria della probabilità si riferiscono alla probabilità delle osservazioni dato un determinato modello e dati i parametri (chiamiamoli ) coinvolti. Ad esempio, le probabilità di situazioni specifiche nei giochi di carte o nei dadi sono spesso molto semplici.x1,x2,...,xnθ

Tuttavia, in molte situazioni pratiche abbiamo a che fare con una situazione inversa ( statistica inferenziale ). Cioè: viene data l'osservazione e ora il modello è sconosciuto , o almeno non conosciamo alcuni parametri .x1,x2,...,xkθ

In questo tipo di problemi ci riferiamo spesso a un termine chiamato la probabilità dei parametri, , che è un tasso di credenza in un parametro specifico dato osservazioni . Questo termine è espresso come proporzionale alla probabilità per le osservazioni supponendo che un parametro modello sarebbe ipoteticamente vero. L(θ)θx1,x2,..xkx1,x2,..xkθ

L(θ,x1,x2,..xk)probability observations x1,x2,..xk given θ 

Per un dato valore di parametro più è probabile una certa osservazione è (rispetto alla probabilità con altri valori di parametro), più l'osservazione supporta questo particolare parametro (o teoria / ipotesi che assume questo parametro) . Un'alta (relativa) probabilità rafforzerà le nostre convinzioni su quel valore di parametro (c'è molto più filosofico da dire al riguardo).θx1,x2,..xn


Probabilità nel problema del carro armato tedesco

Ora per il problema del serbatoio tedesco la funzione di probabilità per un set di campioni è:x1,x2,..xk

L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0if max(x1,x2,..xk)>θ(θk)1if max(x1,x2,..xk)θ,

Se si osservano campioni {1, 2, 10} o campioni {8, 9, 10} non dovrebbe importare quando i campioni vengono considerati da una distribuzione uniforme con parametro . Entrambi i campioni sono ugualmente probabili con probabilità e usando l'idea di probabilità un campione non dice di più sul parametro rispetto all'altro campione.θ(θ3)1θ

I valori alti {8, 9, 10} potrebbero farti pensare / credere che dovrebbe essere più alto. Ma è solo il valore {10} che ti dà davvero informazioni rilevanti sulla probabilità di (il valore 10 ti dice che sarà dieci o superiore, gli altri valori 8 e 9 non contribuiscono a queste informazioni ).θθθ


Teorema di fattorizzazione di Fisher Neyman

Questo teorema ti dice che una certa statistica (cioè una funzione delle osservazioni, come la media, la mediana o come nel problema del serbatoio tedesco il massimo) è sufficiente (contiene tutte le informazioni) quando puoi escludere, nella funzione di verosimiglianza, i termini che dipendono dalle altre osservazioni , in modo tale che questo fattore non dipenda sia dal parametro che da (e la parte della funzione di probabilità che mette in relazione i dati con i valori dei parametri ipotetici dipende solo dalla statistica ma non dall'insieme dei dati / osservazioni).T(x1,x2,,xk)x1,x2,,xkθx1,x2,,xk

Il caso del problema dei carri armati tedeschi è semplice. Puoi vedere sopra che l'intera espressione per la probabilità di cui sopra dipende già solo dalla statistica e il resto dei valori non ha importanza.max(x1,x2,..xk)x1,x2,..xk


Piccolo gioco come esempio

Diciamo che giochiamo ripetutamente il seguente gioco: è esso stesso una variabile casuale e disegnata con uguale probabilità sia 100 che 110. Quindi disegniamo un campione .θx1,x2,...,xk

Vogliamo scegliere una strategia per indovinare , basata che massimizzi la nostra probabilità di avere la giusta ipotesi di .θx1,x2,...,xkθ

La strategia corretta sarà quella di scegliere 100 a meno che uno dei numeri nel campione sia> 100.

Potremmo essere tentati di scegliere il valore del parametro 110 già quando molti dei tendono ad essere tutti valori alti vicini a cento (ma nessuno esattamente oltre cento), ma sarebbe sbagliato. La probabilità di tale osservazione sarà maggiore quando il valore del parametro vero è 100 rispetto a quando è 110. Quindi, se indoviniamo, in tale situazione, 100 come valore del parametro, allora avremo meno probabilità di commettere un errore (perché il situazione con questi valori alti vicini a cento, eppure ancora al di sotto di esso, si verifica più spesso nel caso in cui il valore reale sia 100 anziché nel caso in cui il valore reale sia 110).x1,x2,...,xk


Fantastico, esattamente quello di cui avevo bisogno! Solo un commento sulla tua ultima parentesi: stai dicendo "questi valori alti vicini a cento si verificano più spesso ...", che capisco perché è vero, ma solo per chiarire: è più probabile che si verifichi un valore compreso tra 1 e 100 quando se il parametro è 100 (essenzialmente la probabilità per ogni numero in 1-100 è 1 / parametro).
Bogdan Alexandru,

Inoltre, ora il tuo commento iniziale al mio post ha senso: se avessi saputo applicare questi concetti, il tuo commento sarebbe stato esattamente il suggerimento di cui avrei avuto bisogno per ottenere la prova. Grazie ancora!
Bogdan Alexandru,

@BogdanAlexandru hai ragione; è vero per qualsiasi valore compreso tra 1 e 100. Questa è l'idea controintuitiva, tendiamo a pensare che valori osservati più alti siano in qualche modo più prove per un valore di parametro rispetto a valori osservati bassi, ma per qualsiasi numero è ugualmente probabile e quindi non dovrebbe / non dovrebbe contribuire in alcun modo alle nostre convinzioni sul parametro del modello ( Tranne il valore massimo che osserviamo, ma anche nel gioco che ho fatto solo con una scelta tra due valori. È tale che anche il massimo non fornisce più informazioni quando è più alto o più basso, tranne che attorno ai cento confini).
Sesto Empirico

Il mio commento iniziale potrebbe essere stato troppo pesante, ma stavo solo cercando di capire quale tipo di risposta fosse necessaria. Soprattutto trovo il termine "prova" un po 'forte e mi chiedevo se stavi solo cercando il teorema di fattorizzazione (che sarebbe una domanda a cui si rispondeva sì quando non lo sapevi) o se stavi cercando qualcosa di più vago e filosofico, come persino sfidare concetti di statistica / probabilità e andare oltre un tale teorema per cercare un diverso tipo di "prova".
Sesto Empirico

Buona lettura delle mie intenzioni allora! Grazie ancora.
Bogdan Alexandru,

0

Non hai presentato una formulazione precisa del "problema", quindi non è esattamente chiaro cosa stai chiedendo di provare. Dal punto di vista bayesiano, la probabilità posteriore dipende da tutti i dati. Tuttavia, ogni osservazione di un determinato numero seriale supporterà maggiormente quel numero. Cioè, data qualsiasi osservazione , il rapporto di probabilità tra posteriore e precedente sarà maggiore per l'ipotesi "il numero effettivo di serbatoi è " di quanto sarà per "il numero effettivo di serbatoi è [numero diverso da ]". Quindi, se iniziamo con un'uniforme precedente, allora avrà il posteriore più alto dopo aver visto quell'osservazione.nnnn

Considera un caso in cui abbiamo il punto dati e ipotesi . Ovviamente, il posteriore per è zero. E i nostri posteriori per saranno più grandi del loro precedente. La ragione di ciò è che nel ragionamento bayesiano, l'assenza di prove è la prova dell'assenza. Ogni volta che abbiamo un'opportunità in cui avremmo potuto fare un'osservazione che avrebbe ridotto la nostra probabilità, ma non, la probabilità aumenta. Dal momento che avremmo potuto vedere , che avrebbe impostato i nostri posteriori per a zero, il fatto che non l'abbiamo visto significa che dovremmo aumentare i nostri posteriori per13N=10,13,15N=10N=13,1516N=13,15N=13,15 . Ma nota che più piccolo è il numero, più numeri avremmo potuto vedere che avrebbe escluso quel numero. Per , avremmo respinto questa ipotesi dopo aver visto . Ma per , avremmo avuto bisogno di almeno per respingere l'ipotesi. Poiché l'ipotesi è più falsificabile di , il fatto che non abbiamo falsificato è una prova in più per , che non falsificare è una prova per .N=1314,15,16,...N=1516N=13N=15N=13N=13N=15N=15

Quindi ogni volta che vediamo un punto dati, imposta il posteriore di tutto ciò che sta sotto di esso a zero e aumenta il posteriore di tutto il resto, con numeri più piccoli che ottengono la spinta maggiore. Pertanto, il numero che ottiene la maggiore spinta complessiva sarà il numero più piccolo il cui posteriore non è stato impostato su zero, ovvero il valore massimo delle osservazioni.

I numeri inferiori al massimo influiscono su quanto più grande è la spinta massima, ma non influisce sulla tendenza generale della massima spinta maggiore. Considera l'esempio sopra, dove abbiamo già visto . Se il prossimo numero che vediamo è , che effetto avrà? Aiuta più di , ma entrambi i numeri sono già stati respinti, quindi non è rilevante. Aiuta più di , ma già stato aiutato in più di , quindi ciò non influisce su quale numero è stato aiutato di più.1355613151315


Questo esempio dipende molto dalla situazione e le dichiarazioni non sono generali. Ad esempio, se il precedente è del 50% per 13 e del 50% per 15, l'osservazione di 13 non è tale che "i nostri posteriori per N = 13, 15 saranno più grandi dei loro precedenti" Le osservazioni possono ridurre il posteriore rispetto al precedente .
Sesto Empirico,

Inoltre, l'osservazione di più numeri aggiuntivi può cambiare l'inferenza. Nel caso "se il prossimo numero che vediamo è 5 ...", il posteriore cambierà ancora, anche quando i numeri sono già stati "aiutati", ulteriori numeri possono aumentare questo "aiuto" (ad esempio quando campionate tutti i numeri 1,2, ... 12, 13 quindi questo aumenterà il posteriore di 13 in più rispetto a quando si campiona solo 13)
Sisto Empirico
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.