Szukam metod, które pozwalają oszacować entropię informacji rozkładu, gdy jedynymi praktycznymi sposobami próbkowania z tego rozkładu są metody Monte Carlo.
Mój problem jest podobny do standardowego modelu Isinga, który jest zwykle używany jako wstępny przykład do próbkowania Metropolis-Hastings. Mam rozkład prawdopodobieństwa na zbiorze , tzn mam p ( ) dla każdego A ∈ A . Elementy a ∈ A mają charakter kombinatoryczny, jak stany Isinga, i jest ich bardzo duża liczba. Oznacza to, że w praktyce nigdy nie otrzymuję tej samej próbki dwukrotnie podczas próbkowania z tej dystrybucji na komputerze. p ( a ) nie można obliczyć bezpośrednio (ze względu na brak znajomości współczynnika normalizacji), ale stosunek p ( a jest łatwy do obliczenia.
Chcę oszacować entropię informacji tego rozkładu,
Alternatywnie chcę oszacować różnicę entropii między tym rozkładem a uzyskanym przez ograniczenie go do podzbioru (i oczywiście ponowną normalizację).