Data una variabile casuale derivante da una distribuzione parametrizzata F (X; θ) , la probabilità è definita come la probabilità di dati osservati in funzione di θ: \ text {L} (θ) = \ text {P} (θ ; x = x)XF( X; θ )θ :L( θ )=P( θ ;X= x )
Esiste un esempio in cui due diversi test difendibili con probabilità proporzionali porterebbero a inferenze marcatamente diverse (e ugualmente difendibili), per esempio, dove i valori p sono di ordine di grandezza molto distanti, ma il potere delle alternative è simile? Tutti gli esempi che vedo sono molto sciocchi, confrontando un …
In un commento recentemente pubblicato qui un commentatore ha indicato un blog di Larry Wasserman che sottolinea (senza alcuna fonte) che l'inferenza del frequentatore si scontra con il principio di verosimiglianza. Il principio di verosimiglianza afferma semplicemente che gli esperimenti che producono funzioni di verosimiglianza simili dovrebbero produrre inferenze simili. …
Prendi in considerazione un vettore di parametri , con il parametro di interesse e un parametro di disturbo.θ 1 θ 2(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Se è la probabilità costruita dai dati , la probabilità del profilo per è definita come dove è l'MLE di per un valore fisso di .x θ 1 …
Sto leggendo un articolo in cui gli autori stanno conducendo una discussione sulla stima della massima verosimiglianza con il Teorema di Bayes, apparentemente come un'introduzione per i principianti. Come esempio di probabilità, iniziano con una distribuzione binomiale: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} e quindi registrare entrambi i lati ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)\ell(\theta|x, n) = x …
Sto cercando di comprendere a un livello più profondo l'ubiquità della verosimiglianza (e forse più in generale della verosimiglianza) nella statistica e nella teoria delle probabilità. Le probabilità di log si manifestano ovunque: di solito lavoriamo con la verosimiglianza per analisi (ad es. Per massimizzare), le informazioni di Fisher sono …
Si sostiene spesso che il framework bayesiano abbia un grande vantaggio nell'interpretazione (rispetto al frequentista), perché calcola la probabilità di un parametro dati i dati - invece di p ( x | θ ) come nel quadro frequentista . Fin qui tutto bene.p ( θ | x )p(θ|X)p(\theta|x)p ( x …
Attualmente cerco di capire il principio di verosimiglianza e sinceramente non lo capisco affatto. Quindi, scriverò tutte le mie domande come un elenco, anche se quelle potrebbero essere domande piuttosto elementari. Cosa significa esattamente "tutte le informazioni" nel contesto di questo principio? (come in tutte le informazioni in un campione …
L'essenza della mia domanda è questa: Sia Y∈RnY∈RnY \in \mathbb{R}^n una variabile casuale normale multivariata con media μμ\mu e matrice di covarianza ΣΣ\Sigma . Sia Z:=log(Y)Z:=log(Y)Z := \log(Y) , cioè Zi=log(Yi),i∈{1,…,n}Zi=log(Yi),i∈{1,…,n}Z_i = \log(Y_i), i \in \{1,\ldots,n\} . Come confrontare l'AIC di un modello adatto alle realizzazioni osservate di YYY rispetto …
Il calcolo approssimativo bayesiano è una tecnica davvero interessante per adattarsi praticamente a qualsiasi modello stocastico, destinato a modelli in cui la probabilità è intrattabile (diciamo, è possibile campionare dal modello se si correggono i parametri ma non è possibile calcolare numericamente, algoritmicamente o analiticamente la probabilità). Quando si introduce …
Il processo esponenziale univariato di Hawkes è un processo a punti autoeccitante con un tasso di arrivo dell'evento di: λ(t)=μ+∑ti<tαe−β(t−ti)λ(t)=μ+∑ti<tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} dove sono gli orari di arrivo dell'evento.t1,..tnt1,..tn t_1,..t_n La funzione di verosimiglianza log è −tnμ+αβ∑(e−β(tn−ti)−1)+∑i<jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i<jln(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + …
Per un dato problema di inferenza, sappiamo che un approccio bayesiano di solito differisce sia nella forma che nei risultati da un approccio fequentista. I frequentatori (di solito mi includono) sottolineano spesso che i loro metodi non richiedono un precedente e quindi sono più "guidati dai dati" che dal "giudizio …
Qual è il punto di vista del frequentista sulla storia del voltmetro e le sue variazioni? L'idea alla base è che un'analisi statistica che fa appello a eventi ipotetici dovrebbe essere rivista se venisse in seguito appreso che quegli eventi ipotetici non avrebbero potuto aver luogo come ipotizzato. La versione …
Questa domanda è stimolata dalla domanda: quando (se mai) un approccio frequentista è sostanzialmente migliore di un bayesiano? Come ho pubblicato nella mia soluzione a questa domanda, a mio avviso, se sei un frequentatore non devi credere / aderire al principio di verosimiglianza poiché spesso i metodi che frequentano il …
Ho scritto un codice in grado di eseguire il filtraggio di Kalman (utilizzando un numero di diversi filtri di tipo Kalman [Information Filter et al.]) Per l'analisi dello spazio di stato gaussiano lineare per un vettore di stato n-dimensionale. I filtri funzionano alla grande e sto ottenendo un bel risultato. …
1. Il problema Ho alcune misure di una variabile ytyty_t , dove t=1,2,..,nt=1,2,..,nt=1,2,..,n , per cui ho una distribuzione fyt(yt)fyt(yt)f_{y_t}(y_t) ottenuto tramite MCMC, che per semplicità Si assume una gaussiana di media μtμt\mu_t e varianza σ2tσt2\sigma_t^2 . Ho un modello fisico per quelle osservazioni, diciamo g(t)g(t)g(t) , ma i residui …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.