"Od


9

Krótkie pytanie: dlaczego to prawda?

Długie pytanie:

Po prostu staram się dowiedzieć, co uzasadnia to pierwsze równanie. Autor książki, którą czytam (w kontekście , jeśli chcesz, ale niekoniecznie), twierdzi, co następuje:

Z powodu założenia bliskiego gaussowskości możemy napisać:

p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+i=1naiGi(ξ))

Gdzie p0(ξ) to plik PDF twoich obserwowanych danych, który ma maksymalną entropię, biorąc pod uwagę, że zaobserwowałeś tylko szereg oczekiwań (liczby proste) ci,i=1...n, gdzie ci=E{Gi(ξ)}, i ϕ(ξ) jest plikiem PDF znormalizowanej zmiennej gaussowskiej, to znaczy 0 oznacza średnią i wariancję jednostkową.

Chodzi o to, że wykorzystuje powyższe równanie jako punkt wyjścia do utworzenia pliku PDF, p0(ξ) prościej i rozumiem, jak on to robi, ale nie rozumiem, jak uzasadnia powyższe równanie, tj. punkt początkowy.

Starałem się streścić, aby nikogo nie zaciemniać, ale jeśli chcesz dodatkowych szczegółów, daj mi znać w komentarzach. Dzięki!

Odpowiedzi:


12

(Uwaga: zmieniłem twój ξ do x.)

Dla zmiennej losowej X z gęstością p, jeśli masz ograniczenia

Gi(x)p(x)dx=ci,
dla i=1,,n, maksymalna gęstość entropii wynosi
p0(x)=Aexp(i=1naiGi(x)),
gdzie aisą określone na podstawie cii A jest stałą normalizacyjną.

W tym kontekście przybliżenie Gaussa („bliskie gaussowskości”) oznacza dwie rzeczy:

1) Zgadzasz się na wprowadzenie dwóch nowych ograniczeń: średniej X jest 0 a wariancja jest 1 (mówić);

2) Odpowiedni an+2 (patrz poniżej) jest znacznie większy od drugiego ai„s.

Te dodatkowe ograniczenia są reprezentowane jako

Gn+1(x)=x,cn+1=0,
Gn+2(x)=x2,cn+2=1,
wydajność
p0(x)=Aexp(an+2x2+an+1x+i=1naiGi(x)),
które można przepisać jako (wystarczy „dodać zero” do wykładnika)
p0(x)=Aexp(x22x22+an+2x2+an+1x+i=1naiGi(x)),
prowadząc do tego, czego chcesz:
p0(x)=Aϕ(x)exp(an+1x+(an+2+12)x2+i=1naiGi(x));
gotowy do rozszerzenia Taylora (przy użyciu drugiego warunku przybliżenia Gaussa).

Robiąc przybliżenie jak fizyk (co oznacza, że ​​nie dbamy o kolejność terminu błędu), używając exp(t)1+t, mamy przybliżoną gęstość

p0(x)Aϕ(x)(1+an+1x+(an+2+12)x2+i=1naiGi(x)).
Aby zakończyć, musimy ustalić A i wartości ai„s. Dokonuje się tego narzucając warunki
p0(x)dx=1,xp0(x)dx=0,x2p0(x)dx=1
Gi(x)p0(x)dx=ci,i=1,,n,
uzyskać układ równań, którego rozwiązanie daje A i ai„s.

Bez nakładania dodatkowych warunków na GiNie wierzę, że istnieje proste rozwiązanie w formie zamkniętej.

PS Mohammad wyjaśnił podczas czatu, że z dodatkowymi warunkami ortogonalności dla Gimożemy rozwiązać system.


Zen, wielkie dzięki. Teraz (nieco) rozumiem. Nie jest dla mnie jednak jasne, kiedy mówisz „W tym kontekście przybliżenie Gaussa („ bliskie gaussianity ”) oznacza, że ​​akceptujesz wprowadzenie dwóch nowych ograniczeń: że średnia X wynosi 0, a wariancja to (powiedzmy ) 1. ” , Nie rozumiem, dlaczego coś, co jest „bliskie gaussowi”, znaczy, że takμ=0 i σ2=1. Co jeśli byłby to tylko kolejny samochód kempingowy, który miał te same wartości?
Spacey

Cześć Mohammad. Dodałem więcej informacji do odpowiedzi. Aby uzyskać poprzednie wyrażeniep0(x)używasz tylko tego, co nazwałem pierwszym warunkiem przybliżenia Gaussa. Będziesz używał drugiego warunku, gdy wykonasz rozszerzenie Taylora tegop0(x). Mam nadzieję, że to pomoże.
Zen,

Czy mógłbyś opublikować jako komentarz końcowe wyrażenie dla p0(x)po wykonaniu pozostałych obliczeń? Dzięki.
Zen,

tak, mówi, że ostatecznym wyrażeniem jest: p0(z)ϕ(z)(1+i=1NciFi(z))
Spacey,

Myślę, że w ostatnim równaniu jest literówka? ... an+1xdzieje się dwa razy? ...
Spacey
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.