Oglądałem ten film na maksymalnych i minimalnych wartościach liczb całkowitych ze znakiem.
Weźmy przykład dodatniej wartości ze znakiem - 0000 0001 Pierwszy bit oznacza, że liczba jest dodatnia, a ostatnie 7 bitów to sama liczba. Można to łatwo zinterpretować jako +1.
Teraz weźmy przykład ujemnej wartości ze znakiem - 1000 0000, która wychodzi na -8. Ok, komputer może zrozumieć, że jest to wartość ujemna z powodu pierwszego bitu, ale jak, do diabła, rozumie, że 000 0000 oznacza -8?
Ogólnie, w jaki sposób przechowywane / interpretowane na komputerze wartości ze znakiem ujemnym są przechowywane?