Powiedzmy, że mamy reprezentację wektorową dowolnej liczby całkowitej o wartości n, V_n
Ten wektor stanowi dane wejściowe do algorytmu uczenia maszynowego.
Pierwsze pytanie: dla jakiego rodzaju reprezentacji można nauczyć się pierwotności / złożoności n za pomocą sieci neuronowej lub innego mapowania ML wektor-bit. Jest to czysto teoretyczne - rozmiar sieci neuronowej może być nieograniczony.
Zignorujmy reprezentacje, które są już powiązane z testowaniem pierwotności, takie jak: null oddzielona lista czynników n lub istnienie świadka złożoności, takiego jak w Miller Rabin. Zamiast tego skupmy się na reprezentacjach w różnych radach lub reprezentacjach jako wektorach współczynników wielomianów (być może wielowymiarowych). Lub inne egzotyczne, jak się zakłada.
Drugie pytanie: dla jakiego, jeśli w ogóle, rodzaju algorytmu ML nauczenie się tego będzie niemożliwe bez względu na specyfikę wektora reprezentacji? Ponownie pomińmy reprezentacje „zakazane przez trywialność”, których przykłady podano powyżej.
Dane wyjściowe algorytmu uczenia maszynowego to jeden bit, 0 dla liczb pierwszych, 1 dla kompozytu.
Tytuł tego pytania odzwierciedla moją ocenę, że konsensus dla pytania 1 jest „nieznany”, a konsensus dla pytania 2 to „prawdopodobnie większość algorytmów ML”. Pytam o to, ponieważ nie wiem nic więcej i mam nadzieję, że ktoś wskaże drogę.
Główną motywacją, jeśli istnieje, jest pytanie: czy istnieje „teoretyczna informacja” ograniczenie struktury zbioru liczb pierwszych, które można uchwycić w sieci neuronowej określonego rozmiaru? Ponieważ nie jestem ekspertem w tego rodzaju terminologii, pozwól mi kilka razy przeformułować ten pomysł i sprawdź, czy dostanę przybliżenie Monte-Carlo do pojęcia: jaka jest złożoność algorytmiczna zbioru liczb pierwszych? Czy fakt, że liczby pierwsze są diofantyną wyliczalną rekurencyjnie (i mogą spełniać szczególne duże równanie diofantyny ), może być wykorzystany do uchwycenia tej samej struktury w sieci neuronowej z wejściami i wyjściami opisanymi powyżej.