Istnieje kilka odpowiedzi wskazujących, że sygnał cyfrowy kontra analogowy jest poprawny. Ale to nie odpowiada dlaczego? Kilka wspomnianych warstw tłumaczących, to również trochę prawda, konwersja A / D głównego nurtu może spowodować utratę wierności, ale trzeba to zmierzyć, ponieważ trudno dostrzec różnice gołym okiem. Tania konwersja i wszystkie zakłady są wyłączone.
Dlaczego więc cyfrowy jest lepszy niż analogowy?
Analogowy sygnał RGB (taki jak VGA) wykorzystuje amplitudę sygnału (0,7 V między szczytami w przypadku VGA). Podobnie jak wszystkie sygnały ma szum, który, jeśli jest wystarczająco duży, spowoduje nieprawidłowe tłumaczenie poziomów.
Odbicia w kablu (niedopasowania impedancji) są w rzeczywistości największym spadkiem analogowego sygnału wideo. Wprowadza to dodatkowy szum i pogarsza się przy dłuższych kablach (lub tańszych), im wyższa rozdzielczość wideo, tym większy stosunek sygnału do szumu. Co ciekawe, nie powinno być widać żadnej różnicy w sygnale 800x600, chyba że kabel VGA jest zbyt długi.
W jaki sposób sygnał cyfrowy pozwala uniknąć tych pułapek? Cóż, dla jednego poziom nie jest już istotny. Również DVI-D / HDMI wykorzystuje sygnał różnicowy, a także korekcję błędów, aby zapewnić prawidłowe przesyłanie zer i jedynek. Do sygnału cyfrowego dodano również dodatkowe warunkowanie, które nie jest praktycznym dodatkiem do analogowego sygnału wideo.
Przepraszam za facetów z mydłem, ale to fakty.