Per una variabile casuale continua arbitraria, diciamo , la sua entropia differenziale è sempre inferiore a ∞ ? (Va bene se è - ∞ .) In caso contrario, qual è la condizione necessaria e sufficiente per essere inferiore a ∞ ?
Per una variabile casuale continua arbitraria, diciamo , la sua entropia differenziale è sempre inferiore a ∞ ? (Va bene se è - ∞ .) In caso contrario, qual è la condizione necessaria e sufficiente per essere inferiore a ∞ ?
Risposte:
Ho pensato ancora a questa domanda e sono riuscito a trovare un contro-esempio, grazie anche ai commenti di Piotr sopra. La risposta alla prima domanda è no: l'entropia differenziale di una variabile casuale continua (RV) non è sempre inferiore a . Ad esempio, considera un RV X continuo il cui pdf è f ( x ) = log ( 2 ) perx>2.
Non è difficile verificare che la sua entropia differenziale sia infinita. Tuttavia, cresce abbastanza lentamente (circa logaritmicamente).
Per la seconda domanda, non sono a conoscenza di una semplice condizione necessaria e sufficiente. Tuttavia, una risposta parziale è la seguente. Classificare un camper continuo in uno dei seguenti 3 tipi in base al suo supporto, ad es
Tipo 1: un camper continuo il cui supporto è limitato, cioè contenuto in [a, b].
Tipo 2: un camper continuo il cui supporto è a metà delimitato, ovvero contenuto in [a, ) o ( - ∞ , a]
Tipo 3: un camper continuo il cui supporto è illimitato.
Quindi abbiamo il seguente -
Per un camper di tipo 1, la sua entropia è sempre inferiore a , incondizionatamente.
Per un camper di tipo 2, la sua entropia è inferiore a ∞ , se la sua media ( μ ) è finita.
Per un camper di tipo 3, la sua entropia è inferiore a , se la sua varianza ( σ 2 ) è finita.
L'entropia differenziale di un camper di tipo 1 è inferiore a quella della corrispondente distribuzione uniforme, cioè , un camper di tipo 2, quello della distribuzione esponenziale, cioè 1 + l o g ( | μ - a | ) e un tipo 3 RV, quello della distribuzione gaussiana, cioè 1.