Nie powołując się na źródła Wikipedia określa przekrój entropia dyskretnych rozkładów i Q się
Kto pierwszy zaczął używać tej ilości? A kto wynalazł ten termin? Zajrzałem do:
JE Shore i RW Johnson, „Aksjomatyczne wyprowadzenie zasady maksymalnej entropii i zasady minimalnej entropii krzyżowej”, Teoria informacji, Transakcje IEEE, vol. 26, nr 1, s. 26–37, styczeń 1980 r.
Śledziłem ich wprowadzenie do
A. Wehrl, „Ogólne właściwości entropii”, Recenzje współczesnej fizyki, vol. 50, nr 2, s. 221–260, kwiecień 1978 r.
kto nigdy nie używa tego terminu.
Ani też nie
S. Kullback i R. Leibler, „O informacji i wystarczalności”, The Annals of Mathematical Statistics, vol. 22, nr 1, s. 79–86, 1951.
Zajrzałem do środka
TM Cover i JA Thomas, Elementy teorii informacji (seria Wiley w telekomunikacji i przetwarzaniu sygnałów). Wiley-Interscience, 2006.
i
I. Dobry, „Maksymalna entropia dla formułowania hipotez, szczególnie w wielowymiarowych tabelach kontyngencji”, The Annals of Mathematical Statistics, vol. 34, nr 3, s. 911–934, 1963.
ale oba artykuły definiują entropię krzyżową jako synonim rozbieżności KL.
Oryginalny papier
CE Shannon, „Matematyczna teoria komunikacji”, czasopismo techniczne systemu Bell, vol. 27, 1948 r.
Nie wspomina o entropii krzyżowej (i ma dziwną definicję „entropii względnej”: „Stosunek entropii źródła do maksymalnej wartości, jaką może mieć, gdy jest ograniczony do tych samych symboli”).
Wreszcie przejrzałem stare książki i dokumenty Tribusa.
Czy ktoś wie, jak nazywa się powyższe równanie i kto je wymyślił lub ma ładną prezentację?