Qual è il motivo per cui una funzione di probabilità non è un pdf (funzione di densità di probabilità)?
Qual è il motivo per cui una funzione di probabilità non è un pdf (funzione di densità di probabilità)?
Risposte:
Inizieremo con due definizioni:
Una funzione di densità di probabilità (pdf) è una funzione non negativa che si integra con .
La probabilità è definita come la densità congiunta dei dati osservati in funzione del parametro. Ma, come sottolineato dal riferimento a Lehmann fatto da @whuber in un commento qui sotto, la funzione di probabilità è una funzione del solo parametro, con i dati mantenuti come costante fissa. Quindi il fatto che sia una densità in funzione dei dati è irrilevante.
Pertanto, la funzione di verosimiglianza non è un pdf perché il suo integrale rispetto al parametro non è necessariamente uguale a 1 (e potrebbe non essere affatto integrabile, in realtà, come sottolineato da un altro commento di @whuber).
Forse anche più importante di questo esempio tecnico che mostra perché la probabilità non sia una densità di probabilità è sottolineare che la probabilità non è la probabilità che il valore del parametro sia corretto o qualcosa del genere - è la probabilità (densità) dei dati dato il valore del parametro , che è una cosa completamente diversa. Pertanto non ci si dovrebbe aspettare che la funzione di probabilità si comporti come una densità di probabilità.
Va bene, ma la funzione di probabilità è la densità di probabilità congiunta per i dati osservati dato il parametro . Come tale, può essere normalizzato per formare una funzione di densità di probabilità. Quindi è essenzialmente come un pdf.
Non sono uno statistico, ma la mia comprensione è che mentre la funzione di probabilità in sé non è un PDF rispetto ai parametri, è direttamente correlata a quel PDF da Bayes Rule. La funzione di probabilità, P (X | theta) e distribuzione posteriore, f (theta | X), sono strettamente collegate; non "una cosa completamente diversa" a tutti.
La probabilità è definita come , dove se f (x; θ) è una funzione di massa di probabilità , quindi la probabilità è sempre inferiore a una, ma se f (x; θ) è una funzione di densità di probabilità, allora la probabilità può essere maggiore di una, poiché le densità possono essere maggiori di una.
Normalmente i campioni vengono trattati, quindi:
Vediamo la sua forma originale:
Secondo l'inferenza bayesiana, vale, ovvero . Si noti che la stima della massima verosimiglianza considera il rapporto tra prove e precedenti come una costante (vedere le risposte a questa domanda ), che omette le credenze precedenti. La probabilità ha una correlazione positiva con il posteriore che si basa sui parametri stimati. può essere un pdf ma non è poiché è solo una parte di che è intrattabile. L LL L
Ad esempio, non conosco la varianza media e standard di una distribuzione gaussiana e voglio ottenerli allenandomi usando molti campioni di quella distribuzione. Inizialmente inizializzo casualmente la varianza media e standard (che definisce una distribuzione gaussiana), quindi prendo un campione e mi inserisco nella distribuzione stimata e posso ottenere una probabilità dalla distribuzione stimata. Quindi continuo a inserire il campione e ottenere molte molte probabilità, quindi moltiplico queste probabilità e ottengo un punteggio. Questo tipo di punteggio è la probabilità. Difficilmente può essere una probabilità di un determinato pdf.