Nie istnieją takie standardy, ponieważ wiarygodne szacunki błędów często kosztują znacznie więcej niż przybliżone obliczenia.
Zasadniczo istnieją cztery rodzaje szacunków błędów:
(i) Analizy teoretyczne potwierdzające, że metoda numeryczna jest stabilna numerycznie. To tak naprawdę nie daje paska błędów, ponieważ analiza gwarantuje tylko, że popełniony błąd nie jest gorszy niż błąd ilościowy w argumentach wejściowych. Wystarczy dla większości obliczeń naukowych, ponieważ dane wejściowe są również przybliżone, więc błąd popełniony metodą numerycznie stabilną nie jest gorszy niż użycie nieco innych (ale nieznanych) danych wejściowych. Najbardziej cenionym metodom numerycznym towarzyszy numeryczna analiza statyczna, chociaż prawie nie ma implementacji, która na żądanie zgłasza wynikowy tak zwany błąd wstecz.
(ii) Szacunkowe błędy asymptotyczne. Zakładają one, że produkty wszystkich błędów (błędy wprowadzania, błędy zaokrąglania lub błędy dyskretyzacji są najczęstszymi źródłami) mogą być pomijane (wątpliwe, jeśli funkcje są bardzo nieliniowe) i wykorzystują analizę wrażliwości do propagowania błędów wprowadzania. Wraz z numeryczną analizą stabilności może to również uchwycić efekt błędów zaokrąglania lub błędów dyskretyzacji. Wynikowe słupki błędów są tak samo wiarygodne, jak ważność założeń, na których są oparte. Przy użyciu narzędzi do automatycznego różnicowania koszt oszacowania błędu jest zwykle współczynnikiem 1 lub 2 oprócz kosztu przybliżenia. Dlatego tego rodzaju oszacowanie błędu jest dość częste w praktyce.
[Edytuj] Na przykład, twierdzenie Oettli-Pragera daje łatwe do obliczenia oszacowanie błędu wstecznego dla rozwiązania układów liniowych. Analiza wrażliwości mówi, że błędy te należy pomnożyć przez normę macierzy odwrotnej, którą można oszacować za pomocą estymatora Hagera (wbudowanego w nowoczesne estymatory liczb stanu).
(iii) Analiza błędów stochastycznych: (CESTAC, http://www.sciencedirect.com/science/article/pii/0378475488900705) Dokonuje się tego poprzez przeciążenie wszystkich operacji odpowiednim wariantem stochastycznym, który ocenia trzy zestawy argumentów, a następnie dodaje sztuczny losowy błąd zaokrąglania. ostatnie trzy wyniki służą do obliczenia średniej i odchylenia standardowego pierwiastka kwadratowego (suma kwadratów odchyleń od średniej podzielona przez 2 = 3-1). Daje to dość przydatne oszacowanie dokładności części błędu zaokrąglania. Nie uwzględnia to jednak błędu dyskretyzacji, który zwykle jest dominującym błędem w obliczeniach ODE i PDE. Koszt zależy od języka programowania ze względu na narzut związany z wykonywaniem przeciążonych operacji. Zakładając (co prawie nigdy się nie zdarza) przeciążenie nie pociąga za sobą kary czasowej, koszt wyniku plus oszacowanie błędu jest współczynnikiem 3 w porównaniu do obliczenia jedynie przybliżenia.
(iv) Analiza interwałów: daje to rygorystyczne granice dla wszystkich źródeł błędów, jeśli jest wykonane prawidłowo, ale z wyjątkiem prostych przypadków wymaga dużo doświadczenia (lub oprogramowania wcielającego to), aby zrobić to w taki sposób, że granice nie przeceniają poważnie prawdziwych błędów . Oprogramowanie dobrego interwału jest dostępne między innymi dla algebry liniowej (np. IntLab http://www.ti3.tu-harburg.de/rump/intlab/ ; koszt około 6, jeśli wymiar jest duży) i globalnej optymalizacji (np. , COCONUT http://www.mat.univie.ac.at/~coconut/coconut-environment/; mogą być znacznie droższe lub nawet tańsze niż przybliżona optymalizacja globalna, w zależności od cech problemu). Jednak wiele innych klas problemów łatwych do dokładnego rozwiązania w przybliżeniu (np. Obejmujących trajektorie dużych planet Układu Słonecznego w ciągu 10 lat) jest całkowicie poza zasięgiem obecnej generacji metod interwałowych.