„Drugie” ograniczenie wydaje się zbędne i dezorientuje sprawy. Ponownie umów pierwszy, który chcesz uzyskać
a~t+1=[a~t+(1−δ)Yt−c~t]Rt
To mówi nam, że bogactwo na początku następnego okresu jest w pełni determinowane decyzjami obecnego okresu i znanymi stanami, bez jakiejkolwiek niepewności: zaczynamy od danego bogactwa na początku tego okresu, nasze dochody i stopa procentowa stają się znane, decydujemy i „odkładamy” pełną kwotę zużycia (na cały okres na początku okresu), a reszta staje się oprocentowanym aktywem.
Dlaczego drugie ograniczenie, które patrzy w przyszłość, myli sprawy? Ponieważ w celu zastosowania równania programowania dynamicznego / Bellmana musi być tak, że nasz problem optymalizacji można sformułować jako rekurencyjny , co oznacza, że cały problem wielu okresów, a nawet problem nieskończonego horyzontu, można rozbić na dwa problem z okresem. I mamy ten warunek w powyższym ograniczeniu, nie potrzebujemy drugiego.
Jeśli jest funkcją wartości, równanie Bellmana jest wtedyV(a~t)
V(a~t)=maxc~t[u(c~t)+βV(a~t+1)]
i musimy znaleźć funkcję strategii która spełniah(a~t)=c~t
V(a~t)=u[h(a~t)]+βV[(a~t+(1−δ)Yt−h(a~t))⋅Rt]