Wszędzie szukałem tej odpowiedzi, a przynajmniej takiego pytania (nawet sprzęt Toma nie miał z tym nic „jawnie” związanego).
Moje pytanie jest proste:
Czy istnieje lub istnieje alternatywa dla obecnego sposobu przetwarzania danych (przy użyciu zer i jedynek) w architekturze komputerowej?
Natknąłem się na to pytanie, kiedy szukałem nowego komputera do kupienia, i zacząłem patrzeć, jak Intel i inni faceci z procesorami wydają miliardy na wyciskanie większej liczby tranzystorów na układy itp. (Ale to tylko częściowo wiąże się z moim pytaniem).
Niektórzy ludzie mogą powiedzieć, że „0 i 1 to najniższa forma reprezentowania danych”, co było prawdą, kiedy takie komputery zaczęły używać takiego systemu. Czy nadal tak jest dzisiaj? Czy naprawdę nie wróciliśmy od razu do tablicy kreślarskiej, aby poszukać alternatyw dla przetwarzania, które prawdopodobnie mogą zmniejszyć potrzeby przetwarzania, z którymi mamy obecnie do czynienia?
Wiem niektórym z was, że to pytanie może mieć prostą odpowiedź, która według was jest poprawna, ale po prostu myśląc o tym i wracając do zer i jedynek, a nawet samego tranzystora, zastanawiasz się, czy alternatywy dla każdego istnieje metoda lub etap architektury (nie tylko reprezentacja 0 i 1).
Moja osobista opinia niezwiązana z pytaniem „Wierzę, że ze względu na złożoną naturę obecnych komputerów osobistych, zdolność do wykonania czegoś bardziej złożonego niż przetwarzanie 0 | 1 na najniższym poziomie jest czymś, co może być dziś możliwe, po prostu dlatego, że tego typu przetwarzanie wydaje się być sprzeczne z celem kompleksowego rozwiązania komputera, dla którego zaprojektowano „