Poniżej załóżmy, że pracujemy z maszyną Turinga z nieskończoną taśmą.
Wyjaśniając komuś pojęcie złożoności czasowej i dlaczego mierzy się ją względem wielkości wejściowej instancji, natknąłem się na następujące twierdzenie:
[..] Na przykład naturalne jest, że potrzeba więcej kroków, aby pomnożyć dwie liczby całkowite przez 100 000 bitów, niż, powiedzmy, pomnożenie dwóch liczb całkowitych przez 3 bity.
Twierdzenie jest przekonujące, ale w jakiś sposób wymachuje ręką. We wszystkich algorytmach, które napotkałem, im większy rozmiar wejściowy, tym więcej kroków potrzebujesz. Mówiąc dokładniej, złożoność czasu jest monotonicznie rosnącą funkcją wielkości wejściowej.
Czy jest tak, że złożoność czasu jest zawsze rosnącą funkcją wielkości wejściowej? Jeśli tak, to dlaczego tak jest? Czy jest na to dowód poza wymachiwaniem ręką?