mutual information is a concept from information theory. It is a measure of joint dependence between two random variables, which is not, like the usual correlation coefficient, limited to scalar variables.
Più recentemente, ho letto due articoli. Il primo riguarda la storia della correlazione e il secondo riguarda il nuovo metodo chiamato Maximal Information Coefficient (MIC). Ho bisogno del tuo aiuto per capire il metodo MIC per stimare le correlazioni non lineari tra le variabili. Inoltre, le istruzioni per l'uso in …
Supponiamo che io abbia due insiemi e e una distribuzione di probabilità congiunta su questi insiemi . Let e indicano le distribuzioni marginali oltre e rispettivamente.XXXYYYp(x,y)p(x,y)p(x,y)p(x)p(x)p(x)p(y)p(y)p(y)XXXYYY Le informazioni reciproche tra e sono definite come: XXXYYYI(X;Y)=∑x,yp(x,y)⋅log(p(x,y)p(x)p(y))I(X;Y)=∑x,yp(x,y)⋅log(p(x,y)p(x)p(y))I(X; Y) = \sum_{x,y}p(x,y)\cdot\log\left(\frac{p(x,y)}{p(x)p(y)}\right) cioè è il valore medio dell'informazione reciproca puntuale pmi .(x,y)≡log(p(x,y)p(x)p(y))(x,y)≡log(p(x,y)p(x)p(y))(x,y) \equiv \log\left(\frac{p(x,y)}{p(x)p(y)}\right) …
I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
Ho lavorato con le informazioni reciproche per qualche tempo. Ma ho trovato una misura molto recente nel "mondo di correlazione" che può anche essere usata per misurare l'indipendenza della distribuzione, la cosiddetta "correlazione a distanza" (anche chiamata correlazione browniana): http://en.wikipedia.org/wiki/Brownian_covariance . Ho controllato i documenti in cui è stata introdotta …
Quando si osservano gli autovettori della matrice di covarianza, si ottengono le direzioni della massima varianza (il primo autovettore è la direzione in cui i dati variano maggiormente, ecc.); questo si chiama analisi dei componenti principali (PCA). Mi chiedevo cosa significherebbe guardare gli autovettori / i valori della matrice delle …
Per quanto riguarda il titolo, l'idea è quella di utilizzare le informazioni reciproche, qui e dopo MI, per stimare la "correlazione" (definita come "quanto so di A quando conosco B") tra una variabile continua e una variabile categoriale. Ti racconterò i miei pensieri sull'argomento tra un momento, ma prima di …
Le informazioni reciproche sull'entropia comune potrebbero essere: 0 ≤ I( X, Y)H( X, Y)≤ 10≤io(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 essere definito come: "La probabilità di trasmettere un'informazione da X a Y"? Mi dispiace di essere così ingenuo, ma non ho mai studiato la teoria dell'informazione e sto solo cercando …
Ho un dubbio molto basilare. Scusa se questo irrita pochi. So che il valore delle informazioni reciproche dovrebbe essere maggiore di 0, ma dovrebbe essere inferiore a 1? È limitato da un valore superiore? Grazie Amit.
Un modo per generare incorporamenti di parole è il seguente ( mirror ): Ottieni un corpora, ad es. "Mi piace volare. Mi piace la PNL. Mi piace l'apprendimento profondo." Costruisci la parola matrice di occorrenza da essa: Esegui SVD su XXX e mantieni le prime kkk colonne di U. U1:|V|,1:kU1:|V|,1:kU_{1:|V|,1:k} …
Qui, "peso dell'evidenza" (WOE) è un termine comune nella letteratura scientifica e politica pubblicata, il più delle volte visto nel contesto della valutazione del rischio, definito da: w(e:h)=logp(e|h)p(e|h¯¯¯)w(e:h)=logp(e|h)p(e|h¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} dove è evidenza, è ipotesi.eeehhh Ora, voglio sapere qual è la differenza principale con PMI (informazioni reciproche puntuali) …
Ho visto un paio di discorsi di non statistici in cui sembrano reinventare le misure di correlazione usando le informazioni reciproche anziché la regressione (o test statistici equivalenti / strettamente correlati). Presumo che ci sia una buona ragione per cui gli statistici non adottano questo approccio. La comprensione del mio …
Sono un po 'confuso. Qualcuno può spiegarmi come calcolare le informazioni reciproche tra due termini basati su una matrice di documenti termici con occorrenza binaria di termini come pesi? Document1Document2Document3′Why′111′How′101′When′111′Where′100′Why′′How′′When′′Where′Document11111Document21010Document31110 \begin{matrix} & 'Why' & 'How' & 'When' & 'Where' \\ Document1 & 1 & 1 & 1 & 1 \\ …
Sto cercando di applicare l'idea di informazioni reciproche per la selezione delle funzioni, come descritto in queste note di lezione (a pagina 5). La mia piattaforma è Matlab. Un problema che riscontro nel calcolo delle informazioni reciproche da dati empirici è che il numero è sempre distorto verso l'alto. Ho …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.