W porządku, tutaj jest kilka pytań i wiele czynników. Rezolucje to naprawdę interesująca dziedzina marketingu spotkań psychooptycznych.
Po pierwsze, dlaczego pionowe rozdzielczości na wielokrotnościach YouTube wynoszą 360. Jest to oczywiście tylko arbitralne, nie ma prawdziwego powodu, aby tak było. Powodem jest to, że rozdzielczość tutaj nie jest czynnikiem ograniczającym dla filmów na Youtube - przepustowość jest. YouTube musi ponownie zakodować każdy przesłany film kilka razy i próbuje użyć jak najmniejszej liczby formatów / szybkości transmisji / rozdzielczości, aby objąć wszystkie różne przypadki użycia. W przypadku urządzeń mobilnych o niskiej rozdzielczości mają one rozdzielczość 360x240, w przypadku urządzeń mobilnych o wyższej rozdzielczości - 480p, a dla tłumu komputerów - 360p dla 2xISDN / wielu użytkowników, 720p dla DSL i 1080p dla szybszego internetu. Przez pewien czas istniało kilka innych kodeków niż h.264, ale są one stopniowo wycofywane, ponieważ h.264 zasadniczo „wygrał”
Teraz dzieje się też kilka interesujących psychooptycznych. Jak powiedziałem: rozdzielczość to nie wszystko. 720p z naprawdę silną kompresją może i będzie wyglądać gorzej niż 240p przy bardzo wysokiej przepływności. Ale z drugiej strony spektrum: rzucanie większej ilości bitów przy określonej rozdzielczości nie magicznie czyni go lepszym niż jakiś punkt. Jest tu optymalne, które oczywiście zależy zarówno od rozdzielczości, jak i kodeka. Ogólnie: optymalna szybkość transmisji jest w rzeczywistości proporcjonalna do rozdzielczości.
Kolejne pytanie brzmi: jakie kroki rozwiązywania mają sens? Najwyraźniej ludzie potrzebują około dwukrotnego wzrostu rozdzielczości, aby naprawdę zobaczyć (i preferować) wyraźną różnicę. Cokolwiek mniej niż to, a wiele osób po prostu nie będzie się przejmować wyższymi przepływnościami, wolą wykorzystywać swoją przepustowość do innych celów. To zostało zbadane już dawno temu i jest to główny powód, dla którego przeszliśmy z 720x576 (415kpix) na 1280x720 (922kpix), a potem znowu z 1280x720 do 1920x1080 (2MP). Rzeczy pośrednie nie są realnym celem optymalizacji. I znowu, 1440P to około 3,7 MP, kolejny ~ 2x wzrost w porównaniu z HD. Zobaczysz różnicę. 4K jest kolejnym krokiem po tym.
Następna to magiczna liczba 360 pionowych pikseli. W rzeczywistości magiczna liczba to 120 lub 128. Wszystkie rozdzielczości są obecnie pewnego rodzaju wielokrotnością 120 pikseli, w czasach, gdy były wielokrotnościami 128. To właśnie wyrosło z branży paneli LCD. Panele LCD używają tak zwanych sterowników liniowych, czyli małych układów scalonych umieszczonych po bokach ekranu LCD, które kontrolują jasność każdego subpiksela. Ponieważ historycznie, z powodów, których tak naprawdę nie wiem na pewno, prawdopodobnie z powodu ograniczeń pamięci, istniały już te rozdzielczości 128 lub wiele 120, standardowe sterowniki liniowe stały się sterownikami z wyjściami 360 liniowymi (1 na subpiksel) . Gdybyście zburzyli ekran 1920x1080, kładłbym pieniądze na 16 kierowców liniowych na górze / na dole i 9 na jednej ze stron. Och, hej, to 16: 9.
Następnie pojawia się kwestia współczynnika kształtu. To naprawdę zupełnie inna dziedzina psychologii, ale sprowadza się do: historycznie ludzie wierzyli i mierzyli, że mamy coś w rodzaju szerokiego ekranu na świat. Oczywiście ludzie wierzyli, że najbardziej naturalną reprezentacją danych na ekranie byłby widok szerokokątny, i to właśnie z tego miejsca wywodzi się wielka anamorficzna rewolucja lat 60., kiedy filmy kręcono w coraz szerszych proporcjach.
Od tego czasu ten rodzaj wiedzy został udoskonalony i w większości obalony. Tak, mamy widok szerokokątny, ale obszar, w którym widzimy ostro - środek naszego pola widzenia - jest dość okrągły. Nieco eliptyczny i zgnieciony, ale nie więcej niż około 4: 3 lub 3: 2. Tak więc do szczegółowego przeglądania, na przykład do czytania tekstu na ekranie, możesz wykorzystać większość szczegółowej wizji, stosując prawie kwadratowy ekran, podobny do ekranów z połowy 2000 roku.
Jednak znowu nie tak to wziął marketing. Komputery w dawnych czasach były wykorzystywane głównie do produktywności i szczegółowej pracy, ale w miarę jak ulegały one utowarowieniu, a wraz z rozwojem komputera jako urządzenia do konsumpcji mediów, ludzie niekoniecznie używali swojego komputera do pracy. Używali go do oglądania treści medialnych: filmów, seriali i zdjęć. W przypadku tego rodzaju oglądania najbardziej „zanurza się”, jeśli ekran wypełnia jak najwięcej obrazu (w tym widzenia peryferyjnego). Co oznacza panoramiczny ekran.
Ale wciąż jest więcej marketingu. Kiedy praca nad szczegółami była nadal ważnym czynnikiem, ludzie dbali o rozdzielczość. Jak najwięcej pikseli na ekranie. SGI sprzedawało kineskopy prawie 4K! Najbardziej optymalnym sposobem na uzyskanie maksymalnej liczby pikseli ze szklanego podłoża jest wycięcie go tak kwadratowo, jak to możliwe. Ekrany 1: 1 lub 4: 3 mają najwięcej pikseli na cal przekątnej. Ale w przypadku wyświetlaczy, które stają się coraz bardziej konsumenckie, rozmiar w calach stał się ważniejszy, a nie liczba pikseli. A to zupełnie inny cel optymalizacji. Aby uzyskać jak najwięcej przekątnych z podłoża, należy ustawić możliwie szeroki ekran. Najpierw otrzymaliśmy 16:10, a potem 16: 9 i odnieśli sukcesy producenci paneli produkujący ekrany 22: 9 i 2: 1 (jak Philips). Mimo że gęstość pikseli i rozdzielczość bezwzględna spadły o kilka lat, rozmiary w calach wzrosły i właśnie to sprzedano. Po co kupować 19 "1280x1024, skoro można kupić 21" 1366 x 768? Ech ...
Myślę, że dotyczy to wszystkich głównych aspektów tutaj. Jest oczywiście więcej; Granice przepustowości HDMI, DVI, DP i oczywiście VGA odegrały ważną rolę, a jeśli wrócisz do 2000 roku, ważną rolę odegrała pamięć graficzna, przepustowość komputera i po prostu limity dostępnych na rynku RAMDAC. Ale biorąc pod uwagę dzisiejsze rozważania, chodzi o wszystko, co musisz wiedzieć.