Przepraszam, to trochę „miękkie” pytanie.
Teoria informacji nie ma pojęcia złożoności obliczeniowej. Na przykład instancja SAT lub instancja SAT plus bit wskazujący na satysfakcję niosą tę samą ilość informacji.
Czy istnieje sposób sformalizowania pojęcia „wielomianowo poznawalny”?
Takie ramy mogą definiować na przykład pojęcie dywergencji wielomianowej KL między zmienną losową X względem Y jako liczbę bitów potrzebną do obliczenia X w czasie wielomianowym dla Y.
Podobnie, entropia zmiennej losowej X może być zdefiniowana jako liczba bitów potrzebna do zakodowania X w sposób, który można dekodować w czasie wielomianowym.
Czy badano takie uogólnienie? Czy można to uczynić spójnym?