Jako hobbysta inżynierii ogólnej każdego dnia uczę się więcej o świecie mikrokontrolerów. Jedną rzeczą, której nie do końca rozumiem, jest znaczenie wersji bitowej mikrokontrolera.
Używam ATmega8 od kilku miesięcy i wydaje się, że działa świetnie dla moich celów. Wiem, jak rzeczy takie jak szybkość zegara, pamięć, liczba pinów IO, rodzaje magistrali komunikacyjnych itp. Odróżniają jeden mikrokontroler od drugiego. Ale nie do końca rozumiem znaczenie, powiedzmy, 8-bit vs. 16-bit vs. 32-bit. Rozumiem, że wyższa wersja bitowa pozwala urządzeniu przechowywać większe liczby, ale jak to wpływa na moją decyzję? Jeśli projektuję produkt, w ramach którego hipotetyczny scenariusz zdecydowałbym, że 8-bitowy procesor po prostu nie da rady i że potrzebuję czegoś wyższego.
Czy jest jakiś powód, by sądzić, że teoretyczny 32-bitowy wariant ATmega8 (wszystkie inne rzeczy są równe) byłby lepszy od wersji 8-bitowej (gdyby takie urządzenie było możliwe)?
Być może mówię bzdury, ale myślę, że to wynik mojego zamieszania.