Po pierwsze: z tego, co zrozumiałem, resztki ładowania początkowego działają w następujący sposób:
- Dopasuj model do danych
- Oblicz resztki
- Ponownie próbkuj resztki i dodaj je do 1.
- Dopasuj model do nowego zestawu danych od 3.
- Powtarzaj
n
czasy, ale zawsze dodawaj ponownie próbkowane reszty do dopasowania od 1.
Czy to jak dotąd poprawne?
To, co chcę zrobić, to coś nieco innego:
Chcę oszacować niepewność parametru i prognozy dla algorytmu, który szacuje pewną zmienną środowiskową.
To, co mam, to bezbłędne szeregi czasowe (z symulacji) tej zmiennej x_true
, do których dodaję trochę hałasu x_noise
, w celu wygenerowania syntetycznego zestawu danych x
. Następnie próbuję znaleźć optymalne parametry, dopasowując mój algorytm do sumy kwadratów sum((x_estimate - x_true)^2)
(! Nie x_estimate - x
!) Jako funkcji celu. Aby zobaczyć, jak działa mój algorytm i utworzyć próbki rozkładów parametrów, chcę ponownie próbkować x_noise
, dodać go x_true
, ponownie dopasować do mojego modelu, przepłukać i powtórzyć. Czy to prawidłowe podejście do oceny niepewności parametrów? Czy mogę zinterpretować pasowania do zestawów danych po uruchomieniu jako niepewność prognozowania, czy też muszę postępować zgodnie z procedurą opisaną powyżej?
/ edit: Myślę, że tak naprawdę nie wyjaśniłem, co robi mój model. Pomyśl o tym jako o czymś w rodzaju metody usuwania szumów. To nie jest model predykcyjny, to algorytm, który próbuje wyodrębnić podstawowy sygnał hałaśliwych szeregów czasowych danych środowiskowych.
/ edit ^ 2: Dla użytkowników MATLAB-a tam zapisałem przykład szybkiego i brudnego regresji liniowej, co mam na myśli.
Oto, co uważam za „zwykłe” ładowanie resztkowe (popraw mnie, jeśli się mylę): http://pastebin.com/C0CJp3d1
Oto, co chcę zrobić: http://pastebin.com/mbapsz4c