Domande taggate «maximum-entropy»

la massima entropia o maxent è un principio statistico derivato dalla teoria dell'informazione. Si pensa che le distribuzioni che massimizzano l'entropia (sotto alcuni vincoli) siano "al massimo non informative" dati i vincoli. L'entropia massima può essere utilizzata per molteplici scopi, come la scelta del precedente, la scelta del modello di campionamento o la progettazione degli esperimenti.

6
Perché l'entropia è massimizzata quando la distribuzione di probabilità è uniforme?
So che l'entropia è la misura della casualità di un processo / variabile e può essere definita come segue. per una variabile casuale set : - . Nel libro su Entropy and Information Theory di MacKay, fornisce questa affermazione in Ch2X∈X∈X \inAAAH(X)=∑xi∈A−p(xi)log(p(xi))H(X)=∑xi∈A−p(xi)log⁡(p(xi))H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) L'entropia è …

3
Confutazione basata sull'entropia del paradosso della freccia indietro del tempo bayesiano di Shalizi?
In questo articolo , la talentuosa ricercatrice Cosma Shalizi sostiene che per accettare pienamente una visione soggettiva bayesiana, si deve anche accettare un risultato non fisico secondo cui la freccia del tempo (data dal flusso di entropia) dovrebbe effettivamente tornare indietro . Questo è principalmente un tentativo di argomentare contro …

3
Interpretazione statistica della massima distribuzione di entropia
Ho usato il principio della massima entropia per giustificare l'uso di diverse distribuzioni in vari contesti; tuttavia, devo ancora essere in grado di formulare un'interpretazione statistica, al contrario di quella teorica dell'informazione, della massima entropia. In altre parole, cosa implica massimizzare l'entropia riguardo alle proprietà statistiche della distribuzione? Qualcuno ha …




2
Qual è la funzione di densità di probabilità entropia massima per una variabile positiva positiva di media data e deviazione standard?
Qual è la massima distribuzione di entropia per una variabile continua positiva, visti i suoi primi e secondi momenti? Ad esempio, una distribuzione gaussiana è la massima distribuzione di entropia per una variabile illimitata, data la sua media e deviazione standard, e una distribuzione gamma è la massima distribuzione di …





1
"Poiché
Breve domanda: perché è vero ?? Domanda lunga: Molto semplicemente, sto cercando di capire cosa giustifica questa prima equazione. L'autore del libro che sto leggendo (contesto qui se lo si desidera, ma non necessario), afferma quanto segue: A causa dell'assunto di quasi gaussianità, possiamo scrivere: p0( ξ) = Aϕ ( …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.