Dlaczego rozdzielczość pionowa jest wielokrotnością 360?


23

Ostatnio YouTube dodał funkcjonalność 1440p i po raz pierwszy zdałem sobie sprawę, że wszystkie (większość?) Rozdzielczości pionowe są wielokrotnościami 360.

Czy to tylko dlatego, że najmniejsza wspólna rozdzielczość to 480x360 i wygodnie jest używać wielokrotności? (Nie wątpię, że wielokrotności są wygodne.) I / lub czy to była pierwsza dostępna do oglądania / o odpowiedniej wielkości rozdzielczość, więc sprzęt (telewizory, monitory itp.) Rozwijał się z myślą o 360?

Idąc dalej, dlaczego nie mieć kwadratowej rozdzielczości? A może coś niezwykłego? (Zakładając, że jest to na tyle zwyczajne, że można je zobaczyć). Czy to tylko przyjemna dla oka sytuacja?


360 można wykonać 180, 90 i 45, po prostu omijając linie. To dobra liczba do zmniejszania rozmiaru nie tylko dlatego, że czynniki 2. 3 jest dobre, więc jest 5. Może to jest powód

Odpowiedzi:


31

W porządku, tutaj jest kilka pytań i wiele czynników. Rezolucje to naprawdę interesująca dziedzina marketingu spotkań psychooptycznych.

Po pierwsze, dlaczego pionowe rozdzielczości na wielokrotnościach YouTube wynoszą 360. Jest to oczywiście tylko arbitralne, nie ma prawdziwego powodu, aby tak było. Powodem jest to, że rozdzielczość tutaj nie jest czynnikiem ograniczającym dla filmów na Youtube - przepustowość jest. YouTube musi ponownie zakodować każdy przesłany film kilka razy i próbuje użyć jak najmniejszej liczby formatów / szybkości transmisji / rozdzielczości, aby objąć wszystkie różne przypadki użycia. W przypadku urządzeń mobilnych o niskiej rozdzielczości mają one rozdzielczość 360x240, w przypadku urządzeń mobilnych o wyższej rozdzielczości - 480p, a dla tłumu komputerów - 360p dla 2xISDN / wielu użytkowników, 720p dla DSL i 1080p dla szybszego internetu. Przez pewien czas istniało kilka innych kodeków niż h.264, ale są one stopniowo wycofywane, ponieważ h.264 zasadniczo „wygrał”

Teraz dzieje się też kilka interesujących psychooptycznych. Jak powiedziałem: rozdzielczość to nie wszystko. 720p z naprawdę silną kompresją może i będzie wyglądać gorzej niż 240p przy bardzo wysokiej przepływności. Ale z drugiej strony spektrum: rzucanie większej ilości bitów przy określonej rozdzielczości nie magicznie czyni go lepszym niż jakiś punkt. Jest tu optymalne, które oczywiście zależy zarówno od rozdzielczości, jak i kodeka. Ogólnie: optymalna szybkość transmisji jest w rzeczywistości proporcjonalna do rozdzielczości.

Kolejne pytanie brzmi: jakie kroki rozwiązywania mają sens? Najwyraźniej ludzie potrzebują około dwukrotnego wzrostu rozdzielczości, aby naprawdę zobaczyć (i preferować) wyraźną różnicę. Cokolwiek mniej niż to, a wiele osób po prostu nie będzie się przejmować wyższymi przepływnościami, wolą wykorzystywać swoją przepustowość do innych celów. To zostało zbadane już dawno temu i jest to główny powód, dla którego przeszliśmy z 720x576 (415kpix) na 1280x720 (922kpix), a potem znowu z 1280x720 do 1920x1080 (2MP). Rzeczy pośrednie nie są realnym celem optymalizacji. I znowu, 1440P to około 3,7 MP, kolejny ~ 2x wzrost w porównaniu z HD. Zobaczysz różnicę. 4K jest kolejnym krokiem po tym.

Następna to magiczna liczba 360 pionowych pikseli. W rzeczywistości magiczna liczba to 120 lub 128. Wszystkie rozdzielczości są obecnie pewnego rodzaju wielokrotnością 120 pikseli, w czasach, gdy były wielokrotnościami 128. To właśnie wyrosło z branży paneli LCD. Panele LCD używają tak zwanych sterowników liniowych, czyli małych układów scalonych umieszczonych po bokach ekranu LCD, które kontrolują jasność każdego subpiksela. Ponieważ historycznie, z powodów, których tak naprawdę nie wiem na pewno, prawdopodobnie z powodu ograniczeń pamięci, istniały już te rozdzielczości 128 lub wiele 120, standardowe sterowniki liniowe stały się sterownikami z wyjściami 360 liniowymi (1 na subpiksel) . Gdybyście zburzyli ekran 1920x1080, kładłbym pieniądze na 16 kierowców liniowych na górze / na dole i 9 na jednej ze stron. Och, hej, to 16: 9.

Następnie pojawia się kwestia współczynnika kształtu. To naprawdę zupełnie inna dziedzina psychologii, ale sprowadza się do: historycznie ludzie wierzyli i mierzyli, że mamy coś w rodzaju szerokiego ekranu na świat. Oczywiście ludzie wierzyli, że najbardziej naturalną reprezentacją danych na ekranie byłby widok szerokokątny, i to właśnie z tego miejsca wywodzi się wielka anamorficzna rewolucja lat 60., kiedy filmy kręcono w coraz szerszych proporcjach.

Od tego czasu ten rodzaj wiedzy został udoskonalony i w większości obalony. Tak, mamy widok szerokokątny, ale obszar, w którym widzimy ostro - środek naszego pola widzenia - jest dość okrągły. Nieco eliptyczny i zgnieciony, ale nie więcej niż około 4: 3 lub 3: 2. Tak więc do szczegółowego przeglądania, na przykład do czytania tekstu na ekranie, możesz wykorzystać większość szczegółowej wizji, stosując prawie kwadratowy ekran, podobny do ekranów z połowy 2000 roku.

Jednak znowu nie tak to wziął marketing. Komputery w dawnych czasach były wykorzystywane głównie do produktywności i szczegółowej pracy, ale w miarę jak ulegały one utowarowieniu, a wraz z rozwojem komputera jako urządzenia do konsumpcji mediów, ludzie niekoniecznie używali swojego komputera do pracy. Używali go do oglądania treści medialnych: filmów, seriali i zdjęć. W przypadku tego rodzaju oglądania najbardziej „zanurza się”, jeśli ekran wypełnia jak najwięcej obrazu (w tym widzenia peryferyjnego). Co oznacza panoramiczny ekran.

Ale wciąż jest więcej marketingu. Kiedy praca nad szczegółami była nadal ważnym czynnikiem, ludzie dbali o rozdzielczość. Jak najwięcej pikseli na ekranie. SGI sprzedawało kineskopy prawie 4K! Najbardziej optymalnym sposobem na uzyskanie maksymalnej liczby pikseli ze szklanego podłoża jest wycięcie go tak kwadratowo, jak to możliwe. Ekrany 1: 1 lub 4: 3 mają najwięcej pikseli na cal przekątnej. Ale w przypadku wyświetlaczy, które stają się coraz bardziej konsumenckie, rozmiar w calach stał się ważniejszy, a nie liczba pikseli. A to zupełnie inny cel optymalizacji. Aby uzyskać jak najwięcej przekątnych z podłoża, należy ustawić możliwie szeroki ekran. Najpierw otrzymaliśmy 16:10, a potem 16: 9 i odnieśli sukcesy producenci paneli produkujący ekrany 22: 9 i 2: 1 (jak Philips). Mimo że gęstość pikseli i rozdzielczość bezwzględna spadły o kilka lat, rozmiary w calach wzrosły i właśnie to sprzedano. Po co kupować 19 "1280x1024, skoro można kupić 21" 1366 x 768? Ech ...

Myślę, że dotyczy to wszystkich głównych aspektów tutaj. Jest oczywiście więcej; Granice przepustowości HDMI, DVI, DP i oczywiście VGA odegrały ważną rolę, a jeśli wrócisz do 2000 roku, ważną rolę odegrała pamięć graficzna, przepustowość komputera i po prostu limity dostępnych na rynku RAMDAC. Ale biorąc pod uwagę dzisiejsze rozważania, chodzi o wszystko, co musisz wiedzieć.


1
Jeszcze jeden aspekt: ​​szklane panele, z których wykonane są wyświetlacze (i maszyny, na których muszą się zmieścić) miały określony rozmiar. Okazało się, że tanie jest produkować coraz szersze wyświetlacze zamiast wyrzucać wiele szklanych paneli, ponieważ po prostu nie pasowały do ​​rozmiaru. Tak więc szersze wyświetlacze mogą być produkowane tylko za nieco wyższą cenę i obniżają koszty odpadów.
jippie

@jippie Nigdy nie było dla mnie jasne, jak to działa. Wiem, że szklane podłoża TFT z powłoką ito są wykonane w tych ogromnych panelach o szerokości kilku metrów, ale nie wiem, jaki był „współczynnik kształtu” tych paneli.

Dzięki za dokładną odpowiedź! Podobała mi się również lektura. Warto też docenić trochę historii :-)
Trojan
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.