Alcune differenze chiave, che precedono una spiegazione più lunga di seguito, sono che:
- Fondamentalmente: la distanza Jeffries-Matusita si applica alle distribuzioni, piuttosto che ai vettori in generale.
- La formula della distanza JM citata sopra si applica solo ai vettori che rappresentano distribuzioni di probabilità discrete (cioè vettori che si sommano a 1).
- A differenza della distanza euclidea, la distanza JM può essere generalizzata a qualsiasi distribuzione per la quale sia possibile formulare la distanza di Bhattacharrya.
- La distanza JM ha, attraverso la distanza Bhattacharrya, un'interpretazione probabilistica.
La distanza Jeffries-Matusita, che sembra essere particolarmente popolare nella letteratura del telerilevamento, è una trasformazione della distanza Bhattacharrya (una misura popolare della dissomiglianza tra due distribuzioni, indicata qui come ) dall'intervallo all'intervallo fisso :bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Un vantaggio pratico della distanza JM, secondo questo documento è che questa misura "tende a sopprimere valori di separabilità elevati, pur sottolineando eccessivamente valori di separabilità bassi".
La distanza di Bhattacharrya misura la dissomiglianza di due distribuzioni e nel seguente senso astratto continuo:
Se le distribuzioni e vengono catturati da istogrammi, rappresentato da vettori unità di lunghezza (dove -esimo elemento è il conteggio normalizzato per esimo bidoni) questo diventa:
E di conseguenza la distanza JM per i due istogrammi è:
Che, notando che per gli istogrammi normalizzatipq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, è uguale alla formula che hai indicato sopra:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷