W zeszłym tygodniu na zajęciach mój profesor skomentował i powiedział, że maszyny Turinga są używane jako standardowa miara / model tego, co można obliczyć i są pomocną podstawą do dyskusji na ten temat. Powiedziała również, że wszystkie warianty maszyn Turinga są równoważne obliczeniowo - czytaj, tak samo potężne - jak siebie nawzajem. W.
Skomentowałem i powiedziałem wczoraj, że jeśli chodzi o moc obliczeniową, zauważyłem, że niektóre maszyny Turinga mogą obliczać coś bardzo prostego bardzo długo, podczas gdy maszyna Turinga z większą liczbą taśm może obliczyć coś o niższej asymptotycznej złożoności w odniesieniu do liczby wymaganych kroków.
Powiedziała, że w odniesieniu do dyskursu klasowego czas wykonywania określonego algorytmu na maszynie Turinga nie zmienia definicji obliczalności ani mocy, z jaką mierzymy obliczalność. „Niepokoi nas to, co można w tej chwili obliczyć, a nie to, co w tej chwili jest wydajne.” Tak więc nie ma znaczenia, czy maszyny Turinga mają coraz więcej taśm, a coraz więcej taśm implikuje, że można wykonać obliczenia w mniejszych krokach. Ok, rozumiem, że naprawdę skupiamy się na tym, co jest obliczalne IS, a nie na szybkości, z jaką możemy to obliczyć.
Coś mi w tym przeszkadza, ponieważ do tego momentu algorytmy o niezwykle dużej asymptotycznej złożoności czasu i przestrzeni naprawdę określają granice tego, co, może powinienem powiedzieć, praktycznie obliczalnego.
Mam więc kilka pytań:
- Załóżmy, że mamy model kwantowej maszyny Turinga , musi to być odpowiednik „zwykłej” maszyny Turinga, prawda?
Tak więc odpowiedź na to pytanie, jak sądzę, naprawdę zmierza w kierunku mojego powodu napisania tego postu. Czy technologia obliczeń kwantowych przestaje odpowiadać klasycznym definicjom tego, co można obliczać za pomocą maszyny Turinga?
- Czy to coś nad moją głową i czy powinienem usunąć ten post? Nie chcę być przedwczesny, po prostu nie widziałem pytania podobnego do mojego.