Una misura asimmetrica della distanza (o dissomiglianza) tra le distribuzioni di probabilità. Potrebbe essere interpretato come il valore atteso del rapporto di verosimiglianza secondo l'ipotesi alternativa.
Devo determinare la divergenza KL tra due gaussiani. Sto confrontando i miei risultati con questi , ma non riesco a riprodurli. Il mio risultato è ovviamente sbagliato, perché KL non è 0 per KL (p, p). Mi chiedo dove sto facendo un errore e chiedo se qualcuno può individuarlo. Sia …
Ho imparato l'intuizione alla base della divergenza di KL in quanto una funzione di distribuzione del modello differisce dalla distribuzione teorica / reale dei dati. La fonte sto leggendo continua a dire che la comprensione intuitiva della 'distanza' tra queste due distribuzioni è utile, ma non dovrebbe essere preso alla …
Ho problemi a derivare la formula della divergenza KL ipotizzando due distribuzioni normali multivariate. Ho fatto il caso univariato abbastanza facilmente. Tuttavia, è passato un po 'di tempo da quando ho preso le statistiche matematiche, quindi ho qualche problema ad estenderlo al caso multivariato. Sono sicuro che mi manca qualcosa …
Nella mia mente, la divergenza di KL dalla distribuzione del campione alla distribuzione vera è semplicemente la differenza tra entropia incrociata ed entropia. Perché utilizziamo l'entropia incrociata come funzione di costo in molti modelli di apprendimento automatico, ma utilizziamo la divergenza di Kullback-Leibler in t-sne? C'è qualche differenza nella velocità …
Vedo che ci sono molte differenze formali tra le misure di distanza Kullback – Leibler vs Kolmogorov-Smirnov. Tuttavia, entrambi vengono utilizzati per misurare la distanza tra le distribuzioni. Esiste una situazione tipica in cui uno dovrebbe essere usato anziché l'altro? Qual è la logica per farlo?
Sto cercando una spiegazione intuitiva per le seguenti domande: Nella statistica e nella teoria dell'informazione, qual è la differenza tra la distanza di Bhattacharyya e la divergenza di KL, come misure della differenza tra due distribuzioni di probabilità discrete? Non hanno assolutamente relazioni e misurano la distanza tra due distribuzioni …
Esistono misure di somiglianza o distanza tra due matrici di covarianza simmetriche (entrambe aventi le stesse dimensioni)? Qui sto pensando ad analoghi alla divergenza di KL di due distribuzioni di probabilità o alla distanza euclidea tra vettori tranne che applicata alle matrici. Immagino che ci sarebbero parecchie misurazioni di somiglianza. …
Guarda questa immagine: Se si estrae un campione dalla densità del rosso, alcuni valori dovrebbero essere inferiori a 0,25, mentre è impossibile generare un campione del genere dalla distribuzione blu. Di conseguenza, la distanza di Kullback-Leibler dalla densità rossa alla densità blu è infinito. Tuttavia, le due curve non sono …
Qual è la differenza pratica tra la metrica di Wasserstein e la divergenza di Kullback-Leibler ? La metrica di Wasserstein è anche indicata come distanza del movimento terra . Da Wikipedia: La metrica di Wasserstein (o Vaserstein) è una funzione di distanza definita tra le distribuzioni di probabilità su un …
Sia l'entropia incrociata che la divergenza di KL sono strumenti per misurare la distanza tra due distribuzioni di probabilità. Qual è la differenza? Inoltre, la minimizzazione di KL equivale alla minimizzazione di Cross-Entropy.H(P,Q)=−∑xP(x)logQ(x)H(P,Q)=−∑xP(x)logQ(x) H(P,Q) = -\sum_x P(x)\log Q(x) KL(P|Q)=∑xP(x)logP(x)Q(x)KL(P|Q)=∑xP(x)logP(x)Q(x) KL(P | Q) = \sum_{x} P(x)\log {\frac{P(x)}{Q(x)}} Voglio conoscerli istintivamente. Grazie …
Dopo molte ricerche su Cross Validated, non mi sento ancora più vicino alla comprensione della divergenza di KL al di fuori del regno della teoria dell'informazione. È piuttosto strano come qualcuno con un background matematico per trovare molto più facile capire la spiegazione della teoria dell'informazione. Per delineare la mia …
Sto studiando gli alberi di classificazione e regressione e una delle misure per la posizione divisa è il punteggio GINI. Ora sono abituato a determinare la migliore posizione divisa quando il registro del rapporto di verosimiglianza degli stessi dati tra due distribuzioni è zero, il che significa che la probabilità …
Qualcuno può provare la seguente connessione tra la metrica di informazioni di Fisher e la relativa entropia (o divergenza di KL) in modo rigorosamente matematico rigoroso? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3) dove a=(a1,…,an),da=(da1,…,dan)a=(a1,…,an),da=(da1,…,dan)a=(a^1,\dots, a^n), da=(da^1,\dots,da^n) , gi,j=∫∂i(logp(x;a))∂j(logp(x;a)) p(x;a) dxgi,j=∫∂i(logp(x;a))∂j(logp(x;a)) …
Consideriamo le seguenti due distribuzioni di probabilità P Q 0.01 0.002 0.02 0.004 0.03 0.006 0.04 0.008 0.05 0.01 0.06 0.012 0.07 0.014 0.08 0.016 0.64 0.928 Ho calcolato la divergenza di Kullback-Leibler che è uguale a 0.4928202580.4928202580.492820258 , voglio sapere in generale cosa mi mostra questo numero? Generalmente, la …
Perché la divergenza di KL non è negativa? Dal punto di vista della teoria dell'informazione, ho una comprensione così intuitiva: Supponiamo che ci siano due ensemble e che sono composti dallo stesso insieme di elementi etichettati da . e sono diverse distribuzioni di probabilità rispettivamente sull'ensemble eAAABBBxxxp(x)p(x)p(x)q(x)q(x)q(x)AAABBB Dalla prospettiva della …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.