Równanie Bellmana dla tego problemu programowania dynamicznego


3

W przypadku następującego problemu

max(c~t,a~t+1+s)s=0βsu(c~t+s)

następujące ograniczenia

c~t=(1δ)Yt+ata~t+1Rtc~t+1+s=(1δ)Yt+1+se+a~t+1+sa~t+2+sRt+1+s,s0

gdzie:

c~t : Zużycie w czasie t

a~t : Bogactwo finansowe w czasie t

Yt : Dochód w czasie t

Rt : Nominalna stopa procentowa w czasie t

Yte : Oczekiwany dochód w czasie t

Weź pod uwagę, że u(c~t+s) jest zdefiniowana przez funkcję narzędzia izoelastycznego: u(c~t+s)=c~t+s11σ111σ

Znajdź optymalną funkcję polityki dla c~t .

Nie wiem, jak napisać równanie Bellmana, ponieważ mam dwa ograniczenia. Jaka byłaby optymalna procedura rozwiązania tego problemu?


Zastąpiłbym ograniczenie 1 przez (t + 1 + s) w ograniczeniu 2. Następnie podłącz ograniczenie 2 do celu. Następnie zapisz równanie Bellmana.
Tobias

Dzięki! tego jest , a następnie powiedziałeś, że powinienem podłączyć to do funkcji celu, prawda? Ale jak mogę napisać równanie Bellmana? Myślałem, że problem maksymalizacji zawsze musi mieć ograniczenie do napisania równania Bellmana. Przepraszam, jestem dopiero początkującym z programowaniem dynamicznym. c~t+s=(1δ)Yt+1+seRt+s+(1δ)Yt+s+at+sc~t+1+sRt+sa~t+2+sRt+1+s
Renzo GA

Odpowiedzi:


3

„Drugie” ograniczenie wydaje się zbędne i dezorientuje sprawy. Ponownie umów pierwszy, który chcesz uzyskać

a~t+1=[a~t+(1δ)Ytc~t]Rt

To mówi nam, że bogactwo na początku następnego okresu jest w pełni determinowane decyzjami obecnego okresu i znanymi stanami, bez jakiejkolwiek niepewności: zaczynamy od danego bogactwa na początku tego okresu, nasze dochody i stopa procentowa stają się znane, decydujemy i „odkładamy” pełną kwotę zużycia (na cały okres na początku okresu), a reszta staje się oprocentowanym aktywem.

Dlaczego drugie ograniczenie, które patrzy w przyszłość, myli sprawy? Ponieważ w celu zastosowania równania programowania dynamicznego / Bellmana musi być tak, że nasz problem optymalizacji można sformułować jako rekurencyjny , co oznacza, że ​​cały problem wielu okresów, a nawet problem nieskończonego horyzontu, można rozbić na dwa problem z okresem. I mamy ten warunek w powyższym ograniczeniu, nie potrzebujemy drugiego.

Jeśli jest funkcją wartości, równanie Bellmana jest wtedyV(a~t)

V(a~t)=maxc~t[u(c~t)+βV(a~t+1)]

i musimy znaleźć funkcję strategii która spełniah(a~t)=c~t

V(a~t)=u[h(a~t)]+βV[(a~t+(1δ)Yth(a~t))Rt]

Ta linia jest złota: „co oznacza, że ​​cały problem wielu okresów, a nawet problem nieskończonego horyzontu, można rozbić na problem dwóch okresów”
Jinhua Wang
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.