Biorę kurs projektowania systemu komputerowego, a mój profesor powiedział nam, że w systemach cyfrowych konwencjonalne napięcia używane do oznaczenia cyfrowego 0 i cyfrowego 1 zmieniły się na przestrzeni lat.
Najwyraźniej w latach 80. 5 V używano jako „wysokiego”, a 1 V stosowano jako „niski”. Obecnie „wysoki” wynosi 0,75 V, a „niski” około 0,23 V. Dodał, że w najbliższej przyszłości możemy przejść do systemu, w którym 0,4 V oznacza wysokie, a 0,05 V niskie.
Twierdził, że wartości te stają się coraz mniejsze, abyśmy mogli zmniejszyć zużycie energii. Jeśli tak jest, to dlaczego w ogóle staramy się ustawić „niskie” na jakiekolwiek dodatnie napięcie? Dlaczego po prostu nie ustawimy na prawdziwe napięcie 0 V (chyba neutralne z linii energetycznych)?