Non sono un matematico. Ho cercato su Internet KL Divergence. Quello che ho imparato è che la divergenza di KL misura le informazioni perse quando approssimiamo la distribuzione di un modello rispetto alla distribuzione di input. Ho visto questi tra due distribuzioni continue o discrete. Possiamo farlo tra continuo e discreto o viceversa?