Istnieje standardowa teoria aproksymacji, w której stosunek aproksymacji wynosi (dla problemów zcelami),- wartość zwracana przez niektóre algorytmyi- wartość optymalna. I inna teoria, żeprzybliżenie różnicowe,gdzie stosunek przybliżenia wynosi ,- najgorsza wartość wykonalnego rozwiązania dla danego wystąpienia. Doautorówz tego twierdzenia teorii, że ma jakieś konkretne korzyści w stosunku do klasycznego jednego. Na przykład:
- daje taki sam współczynnik aproksymacji dla takich problemów, jak Minimalna osłona wierzchołków i Maksymalny niezależny zestaw, o których wiadomo, że są tylko różnymi realizacjami tego samego problemu;
- daje ten sam stosunek dla wersji maksymalnej i minimalnej tego samego problemu. Jednocześnie wiemy, że w standardowej teorii MIN TSP i MAX TSP mają bardzo różne stosunki.
- Mierzy odległość nie tylko optymalną, ale także pessimum . Tak więc w przypadku Vertex Cover standardowa teoria aproksymacji mówi, że jest najlepszą górną granicą. Ale niezbędna to maksymalny stosunek między pessimum i optimum. W ten sposób gwarantuje się, że taki algorytm wygeneruje rozwiązanie o najgorszej wartości.
Mój argument pro brzmi: w analizie asymptotycznej nie bierzemy pod uwagę stałych i terminów niskiego rzędu (tutaj przypomniałem cytat Avi Widgersona: „Odnosimy sukces, ponieważ używamy odpowiedniego poziomu abstrakcji”) i to jest poziom abstrakcji do porównywania wykorzystania zasobów przez algorytm. Ale kiedy studiujemy przybliżenie, z jakiegoś powodu wprowadzamy różnicę w tych miejscach, w których możemy jej uniknąć.
Moje pytanie brzmi
dlaczego teoria przybliżania różnicowego jest tak słabo zbadana. Czy związane z tym argumenty nie są wystarczająco silne?