Data una variabile casuale derivante da una distribuzione parametrizzata F (X; θ) , la probabilità è definita come la probabilità di dati osservati in funzione di θ: \ text {L} (θ) = \ text {P} (θ ; x = x)XF( X; θ )θ :L( θ )=P( θ ;X= x )
La pagina di Wikipedia afferma che la probabilità e la probabilità sono concetti distinti. Nel linguaggio non tecnico, "verosimiglianza" è generalmente sinonimo di "probabilità", ma nell'uso statistico esiste una chiara distinzione in prospettiva: il numero che è la probabilità di alcuni risultati osservati dato un insieme di valori di parametro …
Sto iniziando a dilettarsi con l'uso di glmnetcon LASSO Regressione dove il mio risultato di interesse è dicotomica. Di seguito ho creato un piccolo frame di dati finti: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) …
Questa domanda mi ha lasciato perplesso per molto tempo. Capisco l'uso di "log" per massimizzare la probabilità, quindi non sto chiedendo di "log". La mia domanda è, poiché massimizzare la verosimiglianza dei log equivale a minimizzare la "verosimiglianza dei log negativi" (NLL), perché abbiamo inventato questo NLL? Perché non utilizziamo …
Se l'interesse sta semplicemente stimando i parametri di un modello (stima puntuale e / o intervallo) e le informazioni precedenti non sono affidabili, deboli (so che questo è un po 'vago ma sto cercando di stabilire uno scenario in cui la scelta di un la priorità è difficile) ... Perché …
In parole povere un valore p dà una probabilità del risultato osservato di un esperimento data l'ipotesi (modello). Avendo questa probabilità (valore p) vogliamo giudicare la nostra ipotesi (quanto è probabile). Ma non sarebbe più naturale calcolare la probabilità dell'ipotesi dato il risultato osservato? Più in dettaglio. Abbiamo una moneta. …
La probabilità potrebbe essere definita in diversi modi, ad esempio: la funzione da che mappa a cioè .LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} la funzione casualeL(⋅∣X)L(⋅∣X)L(\cdot \mid X) potremmo anche considerare che la probabilità è solo la probabilità "osservata"L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) in pratica la probabilità porta informazioni su solo …
Supponiamo di avere una variabile casuale X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta) . Se θ0θ0\theta_0 fosse il parametro vero, la funzione di verosimiglianza dovrebbe essere massimizzata e la derivata uguale a zero. Questo è il principio alla base dello stimatore della massima verosimiglianza. A quanto ho capito, le informazioni di Fisher sono definite …
Ho sentito parlare della probabilità empirica di Owen, ma fino a poco tempo fa non ho prestato attenzione fino a quando non l'ho incontrato in un documento di interesse ( Mengersen et al. 2012 ). Nei miei sforzi per capirlo, ho raccolto che la probabilità dei dati osservati è rappresentata …
Ho una semplice domanda per quanto riguarda "probabilità condizionale" e "probabilità". (Ho già esaminato questa domanda qui, ma inutilmente.) Si parte dalla pagina di Wikipedia sulla probabilità . Dicono questo: La probabilità di un insieme di valori di parametro, θθ\theta , dati gli esiti xxx , è uguale alla probabilità …
Questa è una domanda ricorrente (vedi questo post , questo post e questo post ), ma ho una rotazione diversa. Supponiamo di avere un sacco di campioni da un campionatore MCMC generico. Per ogni campione θθ\theta , conosco il valore del registro verosimiglianza logf(x|θ)logf(x|θ)\log f(\textbf{x} | \theta) e del registro …
Ho cercato di sviluppare una comprensione basata sull'intuizione del teorema di Bayes in termini di probabilità anteriore , posteriore , di probabilità e marginale . Per questo uso la seguente equazione: dove rappresenta un'ipotesi o una convinzione e rappresenta dati o prove. Ho capito il concetto di posteriore - è …
Alcune fonti affermano che la funzione di verosimiglianza non è una probabilità condizionata, altre lo dicono. Questo è molto confuso per me. Secondo la maggior parte delle fonti che ho visto, la probabilità di una distribuzione con il parametro dovrebbe essere un prodotto delle funzioni di massa di probabilità dati …
Se la priorità e la probabilità sono molto diverse tra loro, a volte si verifica una situazione in cui il posteriore è simile a nessuno dei due. Vedi ad esempio questa immagine, che utilizza distribuzioni normali. Anche se questo è matematicamente corretto, non sembra concordare con la mia intuizione - …
Sto scrivendo un algoritmo in cui, dato un modello, calcolo le probabilità per un elenco di set di dati e quindi ho bisogno di normalizzare (con probabilità) ciascuna delle probabilità. Quindi qualcosa come [0,00043, 0,00004, 0,00321] potrebbe essere convertito in potrebbe essere come [0,2, 0,03, 0,77]. Il mio problema è …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.