I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
Senza citare fonti, Wikipedia definisce il cross-entropia di distribuzioni discrete e siaPPPQQQ H×( P; Q )= - ∑Xp ( x )logq( x ) .H×(P;Q)=-ΣXp(X)logq(X).\begin{align} \mathrm{H}^{\times}(P; Q) &= -\sum_x p(x)\, \log q(x). \end{align} Chi è stato il primo a iniziare a utilizzare questa quantità? E chi ha inventato questo termine? Ho …
Sto raggruppando le distribuzioni di probabilità utilizzando l' algoritmo Propination Affinity e intendo utilizzare la divergenza di Jensen-Shannon come metrica della distanza. È corretto utilizzare JSD stesso come distanza o JSD al quadrato? Perché? Quali differenze deriverebbero dalla scelta dell'uno o dell'altro?
Questa domanda fornisce una definizione quantitativa dell'entropia crociata, in termini di formula. Sto cercando una definizione più nozionale, Wikipedia dice: Nella teoria dell'informazione, l'entropia incrociata tra due distribuzioni di probabilità misura il numero medio di bit necessari per identificare un evento da un insieme di possibilità, se uno schema di …
Di recente ho letto questo articolo sull'entropia di una distribuzione di probabilità discreta. Descrive un bel modo di pensare all'entropia come i bit numerici previsti (almeno quando si utilizza il log2log2\log_2 nella definizione dell'entropia) necessari per codificare un messaggio quando la codifica è ottimale, data la distribuzione di probabilità delle …
Ho pensato che il concetto di set tipico fosse piuttosto intuitivo: una sequenza di lunghezza sarebbe appartenuta al set tipico A ( n ) ϵ se la probabilità che la sequenza venisse fuori era alta. Quindi, qualsiasi sequenza che probabilmente sarebbe stata in A ( n ) ϵ . (Sto …
Quando si osservano gli autovettori della matrice di covarianza, si ottengono le direzioni della massima varianza (il primo autovettore è la direzione in cui i dati variano maggiormente, ecc.); questo si chiama analisi dei componenti principali (PCA). Mi chiedevo cosa significherebbe guardare gli autovettori / i valori della matrice delle …
Per una variabile casuale continua arbitraria, diciamo , la sua entropia differenziale è sempre inferiore a ∞ ? (Va bene se è - ∞ .) In caso contrario, qual è la condizione necessaria e sufficiente per essere inferiore a ∞ ?XXX∞∞\infty−∞−∞-\infty∞∞\infty
L' entropia di una distribuzione continua con funzione di densità fff è definito come il negativo della aspettativa di log( f) ,log(f),\log(f), e quindi è uguale a Hf= - ∫∞- ∞log( f( x ) ) f( x ) d x .Hf=−∫−∞∞log(f(x))f(x)dx.H_f = -\int_{-\infty}^{\infty} \log(f(x)) f(x)\mathrm{d}x. Diciamo anche che qualsiasi variabile …
Sto provando a provare la seguente prova che il gaussiano ha la massima entropia. Che senso ha il passo stellato? Una covarianza specifica risolve solo il secondo momento. Cosa succede al terzo, quarto, quinto momento ecc.?
Quindi, questa domanda è in qualche modo coinvolta, ma ho cercato scrupolosamente di renderla il più semplice possibile. Obiettivo: per farla breve, c'è una derivazione della negentropia che non lo fa coinvolge cumulativi di ordine superiore e sto cercando di capire come è stata derivata. Contesto: (capisco tutto questo) Sto …
L'entropia differenziale del camper gaussiano è . Questo dipende da , che è la deviazione standard.σlog2( σ2 πe---√)log2(σ2πe)\log_2(\sigma \sqrt{2\pi e})σσ\sigma Se normalizziamo la variabile casuale in modo che abbia varianza unitaria, la sua entropia differenziale diminuisce. Per me questo è controintuitivo perché la complessità di Kolmogorov della costante normalizzante dovrebbe …
Il costo dell'entropia incrociata ha senso nel contesto della regressione (al contrario della classificazione)? In tal caso, potresti dare un esempio di giocattolo attraverso TensorFlow? In caso contrario, perché no? Stavo leggendo l'entropia incrociata in Neural Networks e Deep Learning di Michael Nielsen e sembra qualcosa che potrebbe essere naturalmente …
Ho un set di dati molto grande e mancano circa il 5% di valori casuali. Queste variabili sono correlate tra loro. Il seguente set di dati R è solo un esempio di giocattolo con dati correlati fittizi. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.