Po wczorajszym spotkaniu z kilkoma studentami, którzy próbowali użyć dzielnika napięcia zamiast regulatora w celu zapewnienia czujnika o niższym zasilaniu, z przewidywalnymi wynikami, zacząłem się zastanawiać nad tym pytaniem.
Wybierając regulator, wydaje się, że wielu patrzy na wymagany spadek napięcia i wymagane rozproszenie mocy. Pomijając efektywność na razie, jeśli liniowy regulator może obniżyć tę moc w granicach termicznych, regulatory liniowe są opcją, a jeśli nie mogą przejść do regulatorów przełączających.
Gdyby można było ustalić zakres pobieranych prądów i obliczyć dzielnik napięcia, który jednocześnie utrzymywałby sygnał wejściowy do liniowego regulatora wystarczająco wysoko, aby utrzymać regulację i wystarczająco niski, aby regulator nie wypalał zbyt dużej mocy przez prąd zasięg remisu, czy jest to realne podejście?
Mogę wymyślić wiele powodów, dla których może to nie być najlepsze podejście: współczynnik odrzucenia zasilania może nie być wystarczająco dobry dla regulatora; zakres pobieranych prądów, które sprawiają, że takie podejście jest wykonalne, może być bardzo mały, chyba że użyjesz małych rezystorów, które prawdopodobnie przekroczą swoje własne wartości mocy; bardziej efektywne jest użycie regulatora przełączającego; itp.
Może się zdarzyć, że ludzie robią to cały czas, a ja po prostu tego nie zauważyłem, a może zamiast dzielnika stosuje się zener. Wydaje się, że gdy spadek mocy jest zbyt duży, ludzie w większości biegają do przełączania regulatorów.
Czegoś mi brakuje?