Sto confrontando due distribuzioni con la divergenza di KL che mi restituisce un numero non standardizzato che, secondo quanto ho letto su questa misura, è la quantità di informazioni necessarie per trasformare un'ipotesi nell'altra. Ho due domande:
a) C'è un modo per quantificare una divergenza KL in modo che abbia un'interpretazione più significativa, ad esempio come una dimensione dell'effetto o un R ^ 2? Qualche forma di standardizzazione?
b) In R, quando si usa KLdiv (pacchetto flexmix) si può impostare il valore 'esp' (standard esp = 1e-4) che imposta tutti i punti più piccoli di esp rispetto ad alcuni standard al fine di fornire stabilità numerica. Ho giocato con diversi valori esp e, per il mio set di dati, sto ottenendo una divergenza KL sempre più grande quanto minore è il numero che scelgo. Cosa sta succedendo? Mi aspetto che quanto più piccolo è l'esp, tanto più affidabili dovrebbero essere i risultati poiché lasciano che più "valori reali" diventino parte della statistica. No? Devo cambiare esp poiché altrimenti non calcola la statistica ma si presenta semplicemente come NA nella tabella dei risultati ...