BAJT
Próbuję odpowiedzieć na to pytanie z perspektywy C ++.
Standard C ++ definiuje „bajt” jako „adresowalną jednostkę danych wystarczająco dużą, aby pomieścić dowolny element członkowski podstawowego zestawu znaków środowiska wykonawczego”.
Oznacza to, że bajt składa się z co najmniej wystarczającej liczby sąsiednich bitów, aby pomieścić podstawowy zestaw znaków dla implementacji. Oznacza to, że liczba możliwych wartości musi być równa lub większa niż liczba różnych znaków. W Stanach Zjednoczonych podstawowymi zestawami znaków są zwykle zestawy ASCII i EBCDIC, z których każdy może pomieścić 8 bitów. W związku z tym jest zagwarantowane, że bajt będzie miał co najmniej 8 bitów.
Innymi słowy, bajt to ilość pamięci potrzebna do przechowywania pojedynczego znaku.
Jeśli chcesz sprawdzić „liczbę bitów” w swojej implementacji C ++, sprawdź plik „limits.h”. Powinien mieć wpis jak poniżej.
#define CHAR_BIT 8 /* number of bits in a char */
SŁOWO
Słowo definiuje się jako określoną liczbę bitów, które mogą być przetwarzane razem (tj. W jednej próbie) przez maszynę / system. Alternatywnie możemy powiedzieć, że Word definiuje ilość danych, które można przesłać między procesorem a pamięcią RAM w ramach jednej operacji.
Rejestry sprzętowe w komputerze mają wielkość słowa. Rozmiar słowa definiuje również największy możliwy adres pamięci (każdy adres pamięci wskazuje na pamięć o rozmiarze bajtu).
Uwaga - w programach C ++ adresy pamięci wskazują bajt pamięci, a nie słowo.