Pytanie jest inspirowane tym pytaniem pokazującym te zdjęcia .
Przyjęta odpowiedź sugeruje, że te zdjęcia zostały zrobione kamerą 8x10, a użycie aparatu 8x10 zostało potwierdzone w komentarzach.
Moje pytanie brzmi: jak możesz to stwierdzić?
Oglądane na stronie obrazy te mają wymiary 496 x 620 = 0,37 megapiksela (lub 720 x 900 = 0,65 megapiksela, jeśli klikniesz „pełny widok”).
Dlatego każdy aparat o rozdzielczości wyższej niż 0,37 Mpx powinien być w stanie robić te zdjęcia, co oznacza prawie każdy smartfon i kamerę internetową na rynku.
Wiem o czujnikach Bayera . Jednak najgorszym skutkiem działania czujnika Bayera powinno być zmniejszenie rozdzielczości o współczynnik cztery: Jeśli zmniejszysz obraz o współczynnik dwa razy w każdym kierunku, każdy piksel wyjściowy będzie zawierał dane z co najmniej jednego czujnika wejściowego dla każdego z kanały R / G / B.
Skalowanie w dół o współczynnik 4 nadal oznacza, że jakikolwiek aparat o rozdzielczości większej niż 1,5 Mpx (zamiast 0,37 Mpx wyjścia) powinien być w stanie uchwycić te zdjęcia. Nadal mówimy o prawie każdym smartfonie i większości kamer na rynku.
Wiem o głębi kolorów . Ale JPG, format, którego używamy do wyświetlania tych zdjęć, to 8x3 = 24 bity. Według wyników DxOMark istnieje kilka aparatów, w tym Sony NEX 7 i Nikon D3200, które są w stanie uchwycić 24 bity koloru.
Więc nawet jeśli kamera internetowa za 10 USD nie jest w stanie uchwycić niuansów na tych zdjęciach, NEX 7 lub D3200 powinny to zrobić.
Wiem, że większość obiektywów ma niższą rozdzielczość niż większość czujników. Na przykład Nikkor 85 mm f / 1.4G jest najostrzejszym obiektywem Nikona według DxOMark i daje najlepszy przypadek odpowiadający rozdzielczości 19 Mpx w aparacie 24 Mpx (pełnoklatkowy Nikon D3X), podczas gdy najmniej ostry obiektyw ma najlepszy przypadek równy 8 Mpx na tym samym aparacie.
Ale najgorsze soczewki w ich bazie danych wciąż dają rząd wielkości o wiele większą rozdzielczość niż format wyjściowy tych przykładów.
Wiem o zakresie dynamicznym. Ale te obrazy kontrolują oświetlenie, aby nie rozjaśniały świateł ani nie gubiły cieni. Dopóki jesteś w stanie to zrobić, zakres dynamiczny nie ma znaczenia; i tak będzie mapowany na zakres wyjściowy JPG 0-255.
W obu przypadkach DxOMark mówi, że kilka kamer z pełnoklatkowymi lub mniejszymi czujnikami ma lepszy zakres dynamiki niż najlepszy z kamer średniego formatu.
Właśnie to wiem i nie ma w tych fragmentach teorii niczego, co mogłoby mi powiedzieć, jak można odróżnić kamerę o rozdzielczości 8 x 10 od Sony NEX 7, gdy widzisz wynik w formacie JPG 0,37 Mpx.
Zasadniczo, o ile rozumiem, nie powinno mieć znaczenia, ile megapikseli i ile głębi kolorów może przechwycić czujnik, o ile jest to co najmniej tyle, ile może reprezentować format wyjściowy.
Mimo to nie wątpię w ocenę odpowiedzi udzieloną przez Stana Rogersa. I nigdy nie widziałem czegoś podobnego pod względem postrzeganej ostrości z kamer z małymi matrycami.
Czy źle zrozumiałem, co oznacza rozdzielczość?
Chyba przede wszystkim pytam o teorię: w jaki sposób różnica między dwiema rozdzielczościami (mierzonymi w pikselach, lp / mm, głębi kolorów itp.) Może być widoczna w formacie wyświetlania, który ma mniejszą rozdzielczość niż którykolwiek z oryginałów?
Albo inaczej: czy jest coś, co może mnie powstrzymać od skopiowania tych zdjęć do piksela za pomocą Sony NEX 7 i oświetlenia o wartości 10 000 USD?