Penso che dipenda da come deve essere usato.
Solo per riferimento per altri lettori, se e Q sono misure di probabilità, allora la divergenza di Jensen-Shannon è
J ( P , Q ) = 1PQ
doveR=1
J( P, Q ) = 12( D(P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
è la misura del punto medio e
D(⋅∣∣⋅)è la divergenza di Kullback-Leibler.
R = 12( P+ Q )D ( ⋅ ∣ ∣ ⋅ )
Ora, sarei tentato di usare la radice quadrata della divergenza di Jensen-Shannon poiché è una metrica , cioè soddisfa tutte le proprietà "intuitive" di una misura di distanza.
Per maggiori dettagli su questo, vedi
Endres e Schindelin, una nuova metrica per le distribuzioni di probabilità , IEEE Trans. su Info. Tuo. , vol. 49, n. 3, luglio 2003, pagg. 1858-1860.
Certo, in un certo senso, dipende da cosa ti serve. Se tutto ciò per cui lo stai usando è valutare una misura a coppie, allora qualsiasi trasformazione monotonica di JSD funzionerebbe. Se stai cercando qualcosa che è più vicino a una "distanza quadrata", allora lo stesso JSD è la quantità analoga.
Per inciso, potresti anche essere interessato a questa domanda precedente e alle risposte e discussioni associate.