Oto niektóre kluczowe różnice, poprzedzające dłuższe wyjaśnienie poniżej:
- Co najważniejsze: odległość Jeffriesa-Matusity dotyczy raczej rozkładów niż ogólnie wektorów.
- Przytoczony powyżej wzór odległości JM dotyczy tylko wektorów reprezentujących dyskretne rozkłady prawdopodobieństwa (tj. Wektorów sumujących się do 1).
- W przeciwieństwie do odległości euklidesowej, odległość JM można uogólnić na dowolne rozkłady, dla których można sformułować odległość Bhattacharrya.
- Odległość JM ma, poprzez odległość Bhattacharrya, interpretację probabilistyczną.
Odległość Jeffriesa-Matusity, która wydaje się szczególnie popularna w literaturze teledetekcji, jest transformacją odległości Bhattacharryi (popularnej miary podobieństwa między dwoma rozkładami, oznaczonej tutaj jako ) z zakresu [ 0 , inf ) do ustalonego zakresu [ 0 , √bp , q[ 0 , inf ):[ 0 , 2-√]
jotM.p , q= 2 ( 1 - exp( - b ( p , q) )---------------√
Praktyczną zaletą odległości JM, zgodnie z tym artykułem, jest to, że środek ten „ma tendencję do tłumienia wysokich wartości rozdzielności, jednocześnie przeceniając niskie wartości rozdzielności”.
Odległość Bhattacharryi mierzy odmienność dwóch rozkładów i q w następującym abstrakcyjnym sensie ciągłym:
b ( p , q ) = - ln ∫ √pq
Jeśli rozkładypiqsą przechwytywane przez histogramy, reprezentowane przez wektory długości jednostkowej (gdziei-ty element jest znormalizowaną liczbą dlai-tej zNprzedziałów), staje się to:
b(p,q)=-ln N ∑ i = 1 √
b ( p , q) = - ln∫p ( x ) q( x )-------√rex
pqjajaN.
W konsekwencji odległość JM dla dwóch histogramów wynosi:
JMp,q=√b ( p , q) = - ln∑i = 1N.pja⋅ qja-----√
jotM.p , q= 2 ( 1 - ∑i = 1N.pja⋅ qja-----√)----------------⎷
∑japja= 1jotM.p , q= ∑i = 1N.( pja--√- qja--√)2)--------------⎷= ∑i = 1N.( pja- 2 pja--√qja--√+ qja)-------------------⎷= 2 ( 1 - ∑i = 1N.pja⋅ qja-----√)----------------⎷