Qual è la differenza di significato tra la notazione e che sono comunemente usati in molti libri e documenti?
Qual è la differenza di significato tra la notazione e che sono comunemente usati in molti libri e documenti?
Risposte:
Credo che l'origine di questo sia il paradigma della verosimiglianza (anche se non ho verificato l'effettiva correttezza storica di quanto sotto, è un modo ragionevole di capire come è arrivato a essere)
Diciamo in un'impostazione di regressione, avresti una distribuzione: p (Y | x, beta) Il che significa: la distribuzione di Y se conosci (condizionatamente) i valori x e beta.
Se vuoi stimare i beta, vuoi massimizzare la probabilità: L (beta; y, x) = p (Y | x, beta) Essenzialmente, ora stai guardando l'espressione p (Y | x, beta) come una funzione della beta, ma a parte questo, non vi è alcuna differenza (per le espressioni matematiche corrette che puoi derivare correttamente, questa è una necessità --- sebbene in pratica nessuno si preoccupi).
Quindi, nelle impostazioni bayesiane, la differenza tra parametri e altre variabili svanisce presto, quindi uno ha iniziato a usare entrambe le notazioni mescolate.
Quindi, in sostanza: non vi è alcuna differenza effettiva: entrambi indicano la distribuzione condizionale della cosa a sinistra, subordinata alla (e) cosa (e) a destra.
è la densità della variabile casuale X nel punto x , con θ come parametro della distribuzione. f ( x , θ ) è la densità congiunta di X e Θ nel punto ( x , θ ) e ha senso solo se Θ è una variabile casuale. f ( x | θ ) è la distribuzione condizionale di X data Θ e, di nuovo, ha senso solo se è una variabile casuale. Questo diventerà molto più chiaro quando approfondirai il libro e guarderai l'analisi bayesiana.
è uguale a , il che significa semplicemente che è un parametro fisso e la funzione è una funzione di . , OTOH, è un elemento di una famiglia (o insieme) di funzioni, in cui gli elementi sono indicizzati da . Una distinzione sottile, forse, ma importante, esp. quando arriva il momento di stimare un parametro sconosciuto sulla base di dati noti ; in quel momento, varia eviene risolto, risultando nella "funzione di verosimiglianza". L'uso di è più comune tra gli statistici, mentre tra i matematici.
Sebbene non sia sempre stato così, oggigiorno è generalmente usato quando d , w non sono variabili casuali (il che non significa che siano conosciute, necessariamente). P ( z | d , w ) indica il condizionamento sui valori di d , w . Il condizionamento è un'operazione su variabili casuali e come tale usare questa notazione quando d , w non sono variabili casuali è confuso (e tragicamente comune).