Megapiksele są niezbędne!
Rasa megapikselowa z pewnością nie jest „niepotrzebna”. Konsekwentnie w ciągu ostatniej dekady poczyniono postępy w dziedzinie megapikseli, jednocześnie stale podnosząc jakość obrazu. Anegdotyczne reklamy sprawiłyby, że pomyślałeś, że to niemożliwe, ale istnieje wiele ulepszeń technologicznych i produkcyjnych, które spowodowały niższy szum, większy stosunek sygnału do szumu i większy zakres dynamiczny, pomimo kurczących się pikseli.
Myślę, że pojawienie się 36,3-megapikselowej matrycy Sony Exmor obecnie stosowanej w Nikonie D800 jest znakomitym przykładem tego, co udoskonalenia technologiczne na niskim poziomie mogą zrobić, aby obniżyć szum i zwiększyć dynamikę, jednocześnie pozwalając na znaczny wzrost rozdzielczości obrazu. Jako taki, uważam, że D800 jest doskonałym przykładem tego, dlaczego megapikselowy wyścig zdecydowanie się nie skończył.
Co do tego, czy to tylko chwalenie się prawami? Wątpię. Lepsze narzędzia zawsze mogą być skutecznie stosowane w rękach wykwalifikowanego rzemieślnika. Wyższa rozdzielczość i bardziej dynamiczny zakres niskiej wartości ISO mają określone przypadki użycia o wysokiej wartości. Mianowicie fotografia krajobrazowa i niektóre formy fotografii studyjnej. Aparat D800 jest w wyjątkowym miejscu, oferując jakość obrazu w średnim formacie w pakiecie około 1/10 kosztu. W niektórych studiach nie ma najlepszego rozwiązania, które wykorzystają cyfrowe aparaty średnioformatowe o wartości 40 000 USD w celu zapewnienia odpowiedniej percepcji swoim klientom. Jednak dla wielu innych studiów i wielu fotografów krajobrazu D800 to spełnienie marzeń: mnóstwo megapikseli ORAZ wysoki zakres dynamiki.
Nie, wyścig megapikseli zdecydowanie się nie skończył i na pewno nie jest niepotrzebny. Konkurencja na wszystkich frontach przynosi postępy na wszystkich frontach, a to jest tylko dobra rzecz dla konsumenta.
Potencjał do poprawy
Aby sięgnąć nieco głębiej niż moje wnioski powyżej, w tej historii jest coś więcej niż tylko to, że konkurencja na wszystkich frontach jest dobra. Technologicznie, fizycznie i praktycznie istnieją ograniczenia, które faktycznie ograniczą potencjalne korzyści, gdy będziemy nadal zwiększać liczbę pikseli czujnika. Po osiągnięciu tych limitów przydatne korzyści przy rozsądnych kosztach będą musiały zostać osiągnięte w innym miejscu. Dwa obszary, w których może to nastąpić, to optyka i oprogramowanie.
Ograniczenia technologiczne
Technologicznie istnieją wyraźne ograniczenia, o ile możesz poprawić IQ. Głównym źródłem degradacji obrazu w czujnikach jest szum, a istnieje szereg elektronicznie wprowadzanych form szumu, które można kontrolować. Myślę, że Sony, z ich czujnikami Exmor, jest bardzo blisko osiągnięcia limitów technologicznych, jeśli jeszcze tego nie zrobiły. Wykorzystali różnorodne patenty, aby zredukować źródła wytwarzania hałasu na poziomie sprzętowym bezpośrednio w swoich czujnikach. Główne źródło sterowanego szumu są ciemne szum obecny , odczytać hałas , szum wzoru , niejednorodność hałasu , konwersji (lub kwantyzacji) szumu i szumu termicznego .
Zarówno Sony, jak i Canon używają CDS lub skorelowanego podwójnego próbkowania , aby zredukować szum ciemnego prądu. Podejście Sony jest bardziej wydajne, ale oba używają zasadniczo tego samego podejścia. Szum odczytu jest produktem ubocznym wzmocnienia ze względu na wahania prądu w obwodzie. Istnieje wiele opatentowanych i eksperymentalnych podejść do wykrywania zmian napięcia w obwodzie i korygowania go podczas wzmocnienia, aby uzyskać „bardziej czysty, dokładny” wynik odczytu. Sony stosuje własne opatentowane podejście w czujnikach Exmor, w tym 36,3 MP zastosowane w D800. Pozostałe dwa rodzaje szumu elektronicznego przed konwersją to szum wzoru i hałas niejednorodności. Są one wynikiem nieciągłości reakcji obwodu i wydajności.
Szum wzorcowy jest stałym aspektem każdego z tranzystorów używanych do budowy pojedynczego piksela czujnika i bramek elektronicznych używanych do inicjowania odczytu i spłukiwania sygnału. Na poziomie kwantowym jest prawie niemożliwe, aby każdy tranzystor był dokładnie identyczny, a to tworzy stały wzór poziomych i pionowych linii w szumie czujnika. Mówiąc ogólnie, szum wzorcowy ma niewielki wpływ na ogólny hałas i jest tak naprawdę problemem tylko w bardzo niskich regionach SNR lub podczas bardzo długich ekspozycji. Szum wzoru może być stosunkowo łatwy do usunięcia, jeśli podejdziesz do problemu poprawnie. „Ciemną ramkę” można zbudować przez uśrednienie wielu próbek razem, aby utworzyć szablon szumu wzorcowego, który można odróżnić kolorową ramką w celu usunięcia szumu wzorcowego. Zasadniczo tak działa usuwanie szumów przy długiej ekspozycji, i w ten sposób można ręcznie usunąć zakłócenia o ustalonym wzorze z długich ekspozycji. Na poziomie sprzętowym ustalony szum wzoru można złagodzić poprzez wypalenie w szablonie odwracającym efekty FPN, tak że różnice mogą być dodawane / odejmowane w czasie odczytu, podobnie jak CDS, poprawiając w ten sposób „czystość” odczytów pikseli. Obecnie istnieje wiele eksperymentalnych podejść do wypalania w szablonach FPN, a także bardziej abstrakcyjne podejścia.
Szum niejednorodności, często nazywany PRNU lub Pixel Response Non Uniformity, jest wynikiem niewielkich zmian wydajności kwantowej (QE) każdego piksela. QE odnosi się do zdolności pikseli do wychwytywania fotonów i jest zwykle oceniany jako procent. Na przykład Canon 5D III ma 47% QE, co oznacza, że jest wystarczająco wydajny, aby regularnie wychwytywać 47% fotonów, które docierają do każdego piksela. Rzeczywiste QE na piksel może się różnić o +/- o kilka procent, co powoduje powstanie innego źródła szumu, ponieważ każdy piksel może nie wychwycić takiej samej liczby fotonów jak jego sąsiedzi, pomimo otrzymania takiej samej ilości padającego światła. PRNU zmienia się również z czułością, a ta forma hałasu może ulec zaostrzeniu wraz ze wzrostem ISO. PRNU można złagodzić poprzez normalizację wydajności kwantowej każdego piksela, minimalizując różnice między sąsiadami i na całym obszarze czujnika. Ulepszenia QE można osiągnąć przez zmniejszenie odstępu między fotodiodami w każdym pikselu, wprowadzenie jednej lub więcej warstw mikrosoczewek nad każdym pikselem w celu załamania padającego światła niebędącego fotodiodą na fotodiodę oraz zastosowanie technologii czujnika podświetlanego (która bardzo dużo porusza lub wszystkie odczytane okablowanie i tranzystory za fotodiodą, eliminując ryzyko, że mogą one blokować fotony padające i albo je odbijać, albo przekształcać w energię cieplną).
Hałas termiczny to hałas wprowadzany przez ciepło. Ciepło jest zasadniczo tylko inną formą energii i może wzbudzać generowanie elektronów w fotodiodzie podobnie jak puszka fotonowa. Szum termiczny powstaje bezpośrednio w wyniku działania ciepła, często przez gorące komponenty elektroniczne, takie jak procesor obrazu lub ADC. Można to złagodzić poprzez izolację termiczną takich elementów od czujnika lub przez aktywne chłodzenie czujnika.
Wreszcie występuje szum konwersji lub szum kwantyzacji. Ten rodzaj szumu jest generowany z powodu nieodłącznych niedokładności podczas ADC lub konwersji analogowo-cyfrowej. Wzmocnienie niecałkowite (wzmocnienie dziesiętne z częścią całkowitą i ułamkową) jest zwykle stosowane do analogowego sygnału obrazu odczytywanego z czujnika podczas digitalizacji obrazu. Ponieważ sygnał analogowy i wzmocnienie są liczbami rzeczywistymi, cyfrowy (integralny) wynik konwersji jest często niespójny. Wzmocnienie 1 daje jeden ADU na każdy elektron przechwycony przez piksel, jednak bardziej realistyczny wzrost może wynosić 1,46, w którym to przypadku można uzyskać 1 ADU na elektron w niektórych przypadkach i 2 ADU na elektron w innych przypadkach. Ta niespójność może wprowadzać szum konwersji / kwantyzacji w wyjściu cyfrowym po ADC. Ten udział w hałasie jest dość niski, i wytwarza dość dokładne odchylenie szumu między pikselami. Często jest dość łatwy do usunięcia dzięki programowej redukcji szumów.
Usuwanie elektronicznych form szumów może poprawić punkt czerni i czystość czerni obrazu. Im więcej form szumu elektronicznego można wyeliminować lub złagodzić, tym lepszy będzie stosunek sygnału do szumu, nawet przy bardzo niskim poziomie sygnału. Jest to główny front, w którym Sony poczyniło znaczące postępy w zakresie czujników Exmor, co otworzyło możliwość prawdziwego 14-stopniowego zakresu dynamicznego z naprawdę oszałamiającym odzyskiwaniem cienia. Jest to także główny obszar, w którym wiele konkurencyjnych technologii wytwarzania czujników pozostaje w tyle, szczególnie czujniki Canon i średniego formatu. W szczególności czujniki Canon mają bardzo wysoki poziom szumów odczytu, niższe poziomy normalizacji QE, ogólnie niższe QE i używają CDS tylko w celu ograniczenia szumów ciemnego prądu w swoich czujnikach. Powoduje to znacznie niższy ogólny zakres dynamiki,
Gdy wszystkie formy szumu elektronicznego zostaną zredukowane do poziomów, na których nie mają już znaczenia, niewiele producentów będzie w stanie ulepszyć same czujniki. Po osiągnięciu tego punktu jedyną rzeczą, która naprawdę będzie miała znaczenie z punktu widzenia wydajności kwantowej na piksel, jest obszar pikseli ... a przy prawie idealnych właściwościach elektronicznych prawdopodobnie moglibyśmy stać rozmiary pikseli znacznie mniejsze niż czujniki DSLR o największej gęstości dziś (którym byłby Nikon D800 z 4,6 mikrona pikseli, Canon 7D z 4,3 mikrona pikseli, a ostatecznie Nikon D3200 z 3,8 mikrona pikseli). Czujniki telefonów komórkowych używają pikseli o wielkości około 1 mikrona, i wykazali, że takie piksele są realne i mogą wytwarzać całkiem przyzwoite IQ. Ta sama technologia w lustrzance cyfrowej może pójść jeszcze dalej dzięki maksymalnej redukcji szumów,
Ograniczenia fizyczne
Oprócz ograniczeń technologicznych do perfekcji jakości obrazu, istnieje kilka fizycznych ograniczeń. Dwa podstawowe ograniczenia to szum fotonowy i rozdzielczość przestrzenna . Są to aspekty rzeczywistości fizycznej i rzeczy, nad którymi tak naprawdę nie mamy dużej kontroli. Nie można ich złagodzić dzięki ulepszeniom technologicznym i są (i były) obecne niezależnie od jakości naszego sprzętu.
Szum fotonów lub strzał fotonówhałas, jest formą hałasu spowodowanego z natury nieprzewidywalną naturą światła. Na poziomie kwantowym nie możemy dokładnie przewidzieć, jaki piksel może uderzyć foton ani jak często fotony mogą uderzać jeden piksel, a nie inny. Możemy z grubsza dopasować uderzenia fotonu do krzywej prawdopodobieństwa, ale nigdy nie możemy zrobić idealnego dopasowania, więc fotony z równomiernego źródła światła nigdy nie będą idealnie i równomiernie rozmieszczone na obszarze czujnika. Ten fizyczny aspekt rzeczywistości wytwarza większość szumu, który napotykamy na naszych fotografiach, a wzmocnienie tej formy hałasu przez wzmacniacze czujnika jest głównym powodem, dla którego zdjęcia stają się głośniejsze przy wyższych ustawieniach ISO. Niższe stosunki sygnału do szumu oznaczają, że istnieje mniejszy całkowity zakres sygnału do przechwytywania i wzmacniania fotonów, więc wyższy współczynnik SNR może pomóc złagodzić skutki szumu fotonowego i pomóc nam osiągnąć wyższe ustawienia ISO ... jednak samego szumu fotonowego nie da się wyeliminować i zawsze będzie ograniczeniem IQ aparatu cyfrowego. Oprogramowanie może odgrywać rolę w minimalizowaniu szumu wywołanego fotonem, a ponieważ istnieje pewna przewidywalność w świetle, zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu. zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu go w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu. zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu go w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu.
Rozdzielczość przestrzenna to kolejny fizyczny aspekt dwuwymiarowych obrazów, z którym musimy pracować. Częstotliwości przestrzenne lub dwuwymiarowe kształty fal o różnej jasności są sposobem konceptualizacji obrazu wyświetlanego przez obiektyw i rejestrowanego przez czujnik. Rozdzielczość przestrzenna opisuje skalę tych częstotliwości i jest stałym atrybutem układu optycznego. Jeśli chodzi o czujniki, rozdzielczość przestrzenna jest bezpośrednią konsekwencją rozmiaru czujnika i gęstości pikseli.
Rozdzielczość przestrzenna jest często mierzona w parach linii na milimetr (lp / mm) lub w cyklach na milimetr. Aparat D800 z pikselami 4,3 mikrona lub 4912 rzędami pikseli na wysokości czujnika 24 mm ma zdolność 102,33 lp / mm. Co ciekawe, Canon 7D, z 3456 rzędami pikseli na wysokości matrycy 14,9 mm, jest w stanie uzyskać 115,97 lp / mm ... wyższą rozdzielczość niż D800. Podobnie Nikon D3200 z 4000 rzędami pikseli na 15,4 mm wysokości matrycy będzie w stanie osiągnąć 129,87 lp / mm. Zarówno 7D, jak i D3200 są czujnikami APS-C lub wykadrowanymi klatkami ... mniejszymi wymiarami fizycznymi niż pełnoklatkowy czujnik D800. Gdybyśmy nadal zwiększali liczbę megapikseli w matrycy pełnoklatkowej, aż będą miały ten sam rozmiar pikseli co D3200 (3,8 mikrona), moglibyśmy wyprodukować czujnik pikseli 9351 x 6234 lub 58,3 MP. Możemy doprowadzić tę myśl do skrajności, i załóżmy, że możliwe jest wyprodukowanie pełnoklatkowego czujnika DSLR o takim samym rozmiarze piksela jak czujnik w iPhonie 4 (który jest dobrze znany z robienia bardzo dobrych zdjęć za pomocą IQ, które, choć nie tak dobre jak z lustrzanki cyfrowej, jest więcej niż akceptowalny), który wynosi 1,75 mikrona. To by się przełożyło na czujnik pikseli 20571x13714 lub 282,1mp! Taki czujnik byłby w stanie uzyskać rozdzielczość przestrzenną 285,7 lp / mm, a liczba ta, jak wkrótce zobaczycie, ma ograniczone zastosowanie.
Prawdziwe pytanie brzmi, czy taka rozdzielczość w formacie DSLR byłaby korzystna. Odpowiedź na to jest potencjalnie. Rozdzielczość przestrzenna czujnika stanowi górną granicę tego, co mogłaby być możliwa cała kamera, zakładając, że masz odpowiedni obiektyw zdolny do wytworzenia wystarczającej rozdzielczości, aby zmaksymalizować potencjał czujnika. Obiektywy mają swoje własne fizyczne ograniczenia przestrzennej rozdzielczości wyświetlanych obrazów, a ograniczenia te nie są stałe ... różnią się w zależności od przysłony, jakości szkła i korekcji aberracji. Dyfrakcja jest kolejnym fizycznym atrybutem światła, które zmniejsza maksymalną rozdzielczość potencjalną, gdy przechodzi przez coraz bardziej wąski otwór (w przypadku soczewki tym otworem jest apertura.) Aberracje optyczne lub niedoskonałości załamania światła przez soczewkę, są kolejnym aspektem fizycznym, który zmniejsza maksymalną potencjalną rozdzielczość. W przeciwieństwie do dyfrakcji aberracje optyczne zwiększają się wraz ze zwiększaniem apertury. Większość soczewek ma „słaby punkt”, w którym skutki aberracji optycznych i dyfrakcji są w przybliżeniu równoważne, a obiektyw osiąga swój maksymalny potencjał. „Idealny” obiektyw to obiektyw, który nie ma żadnych aberracji optycznych i dlatego jest przeznaczony do tego celudyfrakcja ograniczona . Soczewki często stają się ograniczone dyfrakcją wokół z grubsza f / 4.
Rozdzielczość przestrzenna soczewki jest ograniczona dyfrakcją i aberracjami, a wraz ze wzrostem dyfrakcji wraz ze zmniejszaniem przysłony rozdzielczość przestrzenna maleje wraz z rozmiarem źrenicy wejściowej. Dla f / 4 maksymalna rozdzielczość przestrzenna idealnego obiektywu wynosi 173 lp / mm. Przy przysłonie f / 8 obiektyw o ograniczonej dyfrakcji jest w stanie uzyskać 83 lp / mm, czyli mniej więcej tyle samo, co większość pełnoklatkowych lustrzanek cyfrowych (z wyłączeniem D800), których zakres wynosi od około 70-85 lp / mm. Przy przysłonie f / 16 obiektyw o ograniczonej dyfrakcji może osiągnąć zaledwie 43 lp / mm, połowę rozdzielczości większości pełnoklatkowych aparatów fotograficznych i mniej niż połowę rozdzielczości większości aparatów APS-C. Szerszy niż f / 4, dla obiektywu, na który wciąż wpływają aberracje optyczne, rozdzielczość może szybko spaść do 60 lp / mm lub mniej, a nawet do 25-30 lp / mm dla ultraszybkiego szerokiego kąta f / 1.8 lub szybszych . Wracając do naszej teoretycznej 1. 75-mikronowy piksel 282mp FF czujnik ... byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw o ograniczonej dyfrakcji f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych przysłonach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ciągu ostatnich kilku dekad produkcji soczewek jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw z ograniczoną dyfrakcją f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw z ograniczoną dyfrakcją f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. 4 soczewki, aby osiągnąć taką rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. 4 soczewki, aby osiągnąć taką rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych przysłonach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ciągu ostatnich kilku dekad produkcji soczewek jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej.
Kiedy weźmiemy pod uwagę fizyczne ograniczenia do równania, kiedy wyścig megapikseli dobiegnie końca, stwierdzimy, że (przy prawie doskonałości technologicznej) najwyższa opłacalna rozdzielczość wynosi około 173 lp / mm. To około 103-megapikselowa matryca APS-C. Należy zauważyć, że tak wysoka rozdzielczość czujnika przyniesie korzyści tylko przy coraz wąskim paśmie apertury około f / 4, gdzie wydajność obiektywu jest optymalna. Jeśli korekcja aberracji optycznych stanie się łatwiejsza, możemy być w stanie osiągnąć wyższe rozdzielczości, przesuwając 200 lp / mm, ale znowu, takie rozdzielczości byłyby możliwe tylko przy maksymalnym otworze lub blisko niego, gdzie, jak we wszystkich innych przysłonach, ogólna rozdzielczość twojego kamera będzie niższa, potencjalnie znacznie niższa niż to, do czego zdolny jest sam czujnik.
Kiedy kończy się wyścig megapikseli?
Odpowiedź na to pytanie nie jest naprawdę czymś, co uważam, że ktoś ma kwalifikacje do udzielenia odpowiedzi. Ostatecznie jest to osobisty wybór i będzie zależeć od wielu czynników. Niektórzy fotografowie mogą zawsze chcieć mieć potencjał, jaki oferują czujniki o wyższej rozdzielczości przy idealnej przysłonie, o ile fotografują sceny z coraz bardziej szczegółowymi szczegółami, które wymagają takiej rozdzielczości. Inni fotografowie mogą preferować lepsze postrzeganie ostrości, które osiąga się poprzez poprawę właściwości czujników o niższej rozdzielczości. Dla wielu fotografów uważam, że wyścig megapikseli już się zakończył, a około 20mp w pakiecie FF DSLR to więcej niż wystarcza. Ponadto wielu fotografów widzi jakość obrazu w zupełnie innym świetle, preferowanie liczby klatek na sekundę i możliwości ciągłego rejestrowania większej liczby klatek w niższej rozdzielczości ma zasadnicze znaczenie dla ich sukcesu jako fotografa. W takich przypadkach wielu fanów Nikona wskazało, że około 12mp to więcej niż tyle, o ile potrafią uchwycić 10 klatek na sekundę z wyraźną wyrazistością.
Technologicznie i fizycznie jest jeszcze ogromna przestrzeń do rozwoju i dalszego zwiększania liczby megapikseli i rozdzielczości. Gdzie wyścig kończy się dla nas. Różnorodność opcji na stole nigdy nie była większa niż dziś, a Ty możesz wybrać kombinację rozdzielczości, rozmiaru matrycy i możliwości aparatu, takich jak AF, ISO i DR, które odpowiadają Twoim potrzebom.