Wyścig megapikseli nie jest potrzebny?


15

Czy osiągnęliśmy punkt, w którym wyścig megapikselowy dotyczy bardziej wyścigu, posiadania więcej niż drugiego faceta, niż jakości obrazu?

Jeszcze kilka lat temu 6MP było reklamowane jako optymalna liczba MP potrzebna do robienia naprawdę dobrych zdjęć.

Ale ostatnio, podobnie jak większość technologii, MP przeskakują nad sobą skokowo.

Nikon niedawno wypuścił d800 z (moim zdaniem) szalonym 36,3 MP. Ale dobrze, d800 to dość wysokiej klasy aparat, łatwy sposób upuścić kilka kawałków. Ale potem właśnie wypuścili d3200, który miał na celu stać się „DSLR” dla początkujących, z 24,2 MP. To dwa razy więcej niż d5000, które kupiłem dwa lata temu.

Wiem, że więcej MP jest dobre. Wyższe MP = ostrzejszy obraz. Ale w którym momencie te wzrosty ostrości stają się w najlepszym razie nieistotne, a wzrost liczby PM służy jedynie chwaleniu się prawami?

Kiedy uważasz, że ludzie robili wspaniałe zdjęcia od dziesięcioleci, że niektóre niesamowite zdjęcia były robione na wczesnych lustrzankach cyfrowych o rozdzielczości mniejszej niż 10 MP, jak często 36MP naprawdę będzie przydatne?



Wszystko, co mogę powiedzieć, to to, że nawet gdy nie oglądasz szalonych dużych lub 100% zbiorów, naprawdę możesz zobaczyć dodatkowe szczegóły z D800.
rfusca

Rozmiar piksela jest bardziej odpowiedni do porównania niż megapiksele, więc weź pierwiastek kwadratowy z liczby pikseli. Teraz porównujesz rozmiar piksela 3,2 z wczesnymi lustrzankami cyfrowymi, co najwyraźniej jest w porządku, do „szalonego” d800 6
Matt Grum

@MattGrum: Jestem zdezorientowany tym ostatnim stwierdzeniem. Kiedy mówisz „rozmiar piksela”, masz na myśli gęstość pikseli? Jeśli tak, to D800 ma rozstaw pikseli około 4,6 mikrona. W stosunku do innych kamer: 7D = 4,3, D7000 = 4,8, 5D III = 6,2, 1D X = 6,9, D3s = 8,4. D800 ma gęstość pikseli mniejszą niż prawie wszystkie inne czujniki z wyjątkiem 7D (i po uwolnieniu, D3200, który będzie miał skok pikseli około 3,8 mikrona). Doszedłem do tych liczb, dzieląc fizyczną wysokość czujnik (powiedzmy 24 mm, 15,7 mm, 14,9 mm) przez rzędy pikseli. Nie jestem do końca pewien, gdzie ma zastosowanie pierwiastek kwadratowy.
jrista

2
@MattGrum: Ach, tak, całkowicie się z tobą zgódź. :) Różnica między „liniową” liczbą pikseli a „obszarem” pikseli. Argumentowałem tak wiele razy ostatnio na innych forach ... to koncepcja, której ludzie naprawdę nie rozumieją. Może moglibyśmy użyć posta na blogu na ten temat ...
jrista

Odpowiedzi:


16

Megapiksele są niezbędne!

Rasa megapikselowa z pewnością nie jest „niepotrzebna”. Konsekwentnie w ciągu ostatniej dekady poczyniono postępy w dziedzinie megapikseli, jednocześnie stale podnosząc jakość obrazu. Anegdotyczne reklamy sprawiłyby, że pomyślałeś, że to niemożliwe, ale istnieje wiele ulepszeń technologicznych i produkcyjnych, które spowodowały niższy szum, większy stosunek sygnału do szumu i większy zakres dynamiczny, pomimo kurczących się pikseli.

Myślę, że pojawienie się 36,3-megapikselowej matrycy Sony Exmor obecnie stosowanej w Nikonie D800 jest znakomitym przykładem tego, co udoskonalenia technologiczne na niskim poziomie mogą zrobić, aby obniżyć szum i zwiększyć dynamikę, jednocześnie pozwalając na znaczny wzrost rozdzielczości obrazu. Jako taki, uważam, że D800 jest doskonałym przykładem tego, dlaczego megapikselowy wyścig zdecydowanie się nie skończył.

Co do tego, czy to tylko chwalenie się prawami? Wątpię. Lepsze narzędzia zawsze mogą być skutecznie stosowane w rękach wykwalifikowanego rzemieślnika. Wyższa rozdzielczość i bardziej dynamiczny zakres niskiej wartości ISO mają określone przypadki użycia o wysokiej wartości. Mianowicie fotografia krajobrazowa i niektóre formy fotografii studyjnej. Aparat D800 jest w wyjątkowym miejscu, oferując jakość obrazu w średnim formacie w pakiecie około 1/10 kosztu. W niektórych studiach nie ma najlepszego rozwiązania, które wykorzystają cyfrowe aparaty średnioformatowe o wartości 40 000 USD w celu zapewnienia odpowiedniej percepcji swoim klientom. Jednak dla wielu innych studiów i wielu fotografów krajobrazu D800 to spełnienie marzeń: mnóstwo megapikseli ORAZ wysoki zakres dynamiki.

Nie, wyścig megapikseli zdecydowanie się nie skończył i na pewno nie jest niepotrzebny. Konkurencja na wszystkich frontach przynosi postępy na wszystkich frontach, a to jest tylko dobra rzecz dla konsumenta.


Potencjał do poprawy

Aby sięgnąć nieco głębiej niż moje wnioski powyżej, w tej historii jest coś więcej niż tylko to, że konkurencja na wszystkich frontach jest dobra. Technologicznie, fizycznie i praktycznie istnieją ograniczenia, które faktycznie ograniczą potencjalne korzyści, gdy będziemy nadal zwiększać liczbę pikseli czujnika. Po osiągnięciu tych limitów przydatne korzyści przy rozsądnych kosztach będą musiały zostać osiągnięte w innym miejscu. Dwa obszary, w których może to nastąpić, to optyka i oprogramowanie.

Ograniczenia technologiczne

Technologicznie istnieją wyraźne ograniczenia, o ile możesz poprawić IQ. Głównym źródłem degradacji obrazu w czujnikach jest szum, a istnieje szereg elektronicznie wprowadzanych form szumu, które można kontrolować. Myślę, że Sony, z ich czujnikami Exmor, jest bardzo blisko osiągnięcia limitów technologicznych, jeśli jeszcze tego nie zrobiły. Wykorzystali różnorodne patenty, aby zredukować źródła wytwarzania hałasu na poziomie sprzętowym bezpośrednio w swoich czujnikach. Główne źródło sterowanego szumu są ciemne szum obecny , odczytać hałas , szum wzoru , niejednorodność hałasu , konwersji (lub kwantyzacji) szumu i szumu termicznego .

Zarówno Sony, jak i Canon używają CDS lub skorelowanego podwójnego próbkowania , aby zredukować szum ciemnego prądu. Podejście Sony jest bardziej wydajne, ale oba używają zasadniczo tego samego podejścia. Szum odczytu jest produktem ubocznym wzmocnienia ze względu na wahania prądu w obwodzie. Istnieje wiele opatentowanych i eksperymentalnych podejść do wykrywania zmian napięcia w obwodzie i korygowania go podczas wzmocnienia, aby uzyskać „bardziej czysty, dokładny” wynik odczytu. Sony stosuje własne opatentowane podejście w czujnikach Exmor, w tym 36,3 MP zastosowane w D800. Pozostałe dwa rodzaje szumu elektronicznego przed konwersją to szum wzoru i hałas niejednorodności. Są one wynikiem nieciągłości reakcji obwodu i wydajności.

Szum wzorcowy jest stałym aspektem każdego z tranzystorów używanych do budowy pojedynczego piksela czujnika i bramek elektronicznych używanych do inicjowania odczytu i spłukiwania sygnału. Na poziomie kwantowym jest prawie niemożliwe, aby każdy tranzystor był dokładnie identyczny, a to tworzy stały wzór poziomych i pionowych linii w szumie czujnika. Mówiąc ogólnie, szum wzorcowy ma niewielki wpływ na ogólny hałas i jest tak naprawdę problemem tylko w bardzo niskich regionach SNR lub podczas bardzo długich ekspozycji. Szum wzoru może być stosunkowo łatwy do usunięcia, jeśli podejdziesz do problemu poprawnie. „Ciemną ramkę” można zbudować przez uśrednienie wielu próbek razem, aby utworzyć szablon szumu wzorcowego, który można odróżnić kolorową ramką w celu usunięcia szumu wzorcowego. Zasadniczo tak działa usuwanie szumów przy długiej ekspozycji, i w ten sposób można ręcznie usunąć zakłócenia o ustalonym wzorze z długich ekspozycji. Na poziomie sprzętowym ustalony szum wzoru można złagodzić poprzez wypalenie w szablonie odwracającym efekty FPN, tak że różnice mogą być dodawane / odejmowane w czasie odczytu, podobnie jak CDS, poprawiając w ten sposób „czystość” odczytów pikseli. Obecnie istnieje wiele eksperymentalnych podejść do wypalania w szablonach FPN, a także bardziej abstrakcyjne podejścia.

Szum niejednorodności, często nazywany PRNU lub Pixel Response Non Uniformity, jest wynikiem niewielkich zmian wydajności kwantowej (QE) każdego piksela. QE odnosi się do zdolności pikseli do wychwytywania fotonów i jest zwykle oceniany jako procent. Na przykład Canon 5D III ma 47% QE, co oznacza, że ​​jest wystarczająco wydajny, aby regularnie wychwytywać 47% fotonów, które docierają do każdego piksela. Rzeczywiste QE na piksel może się różnić o +/- o kilka procent, co powoduje powstanie innego źródła szumu, ponieważ każdy piksel może nie wychwycić takiej samej liczby fotonów jak jego sąsiedzi, pomimo otrzymania takiej samej ilości padającego światła. PRNU zmienia się również z czułością, a ta forma hałasu może ulec zaostrzeniu wraz ze wzrostem ISO. PRNU można złagodzić poprzez normalizację wydajności kwantowej każdego piksela, minimalizując różnice między sąsiadami i na całym obszarze czujnika. Ulepszenia QE można osiągnąć przez zmniejszenie odstępu między fotodiodami w każdym pikselu, wprowadzenie jednej lub więcej warstw mikrosoczewek nad każdym pikselem w celu załamania padającego światła niebędącego fotodiodą na fotodiodę oraz zastosowanie technologii czujnika podświetlanego (która bardzo dużo porusza lub wszystkie odczytane okablowanie i tranzystory za fotodiodą, eliminując ryzyko, że mogą one blokować fotony padające i albo je odbijać, albo przekształcać w energię cieplną).

Hałas termiczny to hałas wprowadzany przez ciepło. Ciepło jest zasadniczo tylko inną formą energii i może wzbudzać generowanie elektronów w fotodiodzie podobnie jak puszka fotonowa. Szum termiczny powstaje bezpośrednio w wyniku działania ciepła, często przez gorące komponenty elektroniczne, takie jak procesor obrazu lub ADC. Można to złagodzić poprzez izolację termiczną takich elementów od czujnika lub przez aktywne chłodzenie czujnika.

Wreszcie występuje szum konwersji lub szum kwantyzacji. Ten rodzaj szumu jest generowany z powodu nieodłącznych niedokładności podczas ADC lub konwersji analogowo-cyfrowej. Wzmocnienie niecałkowite (wzmocnienie dziesiętne z częścią całkowitą i ułamkową) jest zwykle stosowane do analogowego sygnału obrazu odczytywanego z czujnika podczas digitalizacji obrazu. Ponieważ sygnał analogowy i wzmocnienie są liczbami rzeczywistymi, cyfrowy (integralny) wynik konwersji jest często niespójny. Wzmocnienie 1 daje jeden ADU na każdy elektron przechwycony przez piksel, jednak bardziej realistyczny wzrost może wynosić 1,46, w którym to przypadku można uzyskać 1 ADU na elektron w niektórych przypadkach i 2 ADU na elektron w innych przypadkach. Ta niespójność może wprowadzać szum konwersji / kwantyzacji w wyjściu cyfrowym po ADC. Ten udział w hałasie jest dość niski, i wytwarza dość dokładne odchylenie szumu między pikselami. Często jest dość łatwy do usunięcia dzięki programowej redukcji szumów.

Usuwanie elektronicznych form szumów może poprawić punkt czerni i czystość czerni obrazu. Im więcej form szumu elektronicznego można wyeliminować lub złagodzić, tym lepszy będzie stosunek sygnału do szumu, nawet przy bardzo niskim poziomie sygnału. Jest to główny front, w którym Sony poczyniło znaczące postępy w zakresie czujników Exmor, co otworzyło możliwość prawdziwego 14-stopniowego zakresu dynamicznego z naprawdę oszałamiającym odzyskiwaniem cienia. Jest to także główny obszar, w którym wiele konkurencyjnych technologii wytwarzania czujników pozostaje w tyle, szczególnie czujniki Canon i średniego formatu. W szczególności czujniki Canon mają bardzo wysoki poziom szumów odczytu, niższe poziomy normalizacji QE, ogólnie niższe QE i używają CDS tylko w celu ograniczenia szumów ciemnego prądu w swoich czujnikach. Powoduje to znacznie niższy ogólny zakres dynamiki,

Gdy wszystkie formy szumu elektronicznego zostaną zredukowane do poziomów, na których nie mają już znaczenia, niewiele producentów będzie w stanie ulepszyć same czujniki. Po osiągnięciu tego punktu jedyną rzeczą, która naprawdę będzie miała znaczenie z punktu widzenia wydajności kwantowej na piksel, jest obszar pikseli ... a przy prawie idealnych właściwościach elektronicznych prawdopodobnie moglibyśmy stać rozmiary pikseli znacznie mniejsze niż czujniki DSLR o największej gęstości dziś (którym byłby Nikon D800 z 4,6 mikrona pikseli, Canon 7D z 4,3 mikrona pikseli, a ostatecznie Nikon D3200 z 3,8 mikrona pikseli). Czujniki telefonów komórkowych używają pikseli o wielkości około 1 mikrona, i wykazali, że takie piksele są realne i mogą wytwarzać całkiem przyzwoite IQ. Ta sama technologia w lustrzance cyfrowej może pójść jeszcze dalej dzięki maksymalnej redukcji szumów,

Ograniczenia fizyczne

Oprócz ograniczeń technologicznych do perfekcji jakości obrazu, istnieje kilka fizycznych ograniczeń. Dwa podstawowe ograniczenia to szum fotonowy i rozdzielczość przestrzenna . Są to aspekty rzeczywistości fizycznej i rzeczy, nad którymi tak naprawdę nie mamy dużej kontroli. Nie można ich złagodzić dzięki ulepszeniom technologicznym i są (i były) obecne niezależnie od jakości naszego sprzętu.

Szum fotonów lub strzał fotonówhałas, jest formą hałasu spowodowanego z natury nieprzewidywalną naturą światła. Na poziomie kwantowym nie możemy dokładnie przewidzieć, jaki piksel może uderzyć foton ani jak często fotony mogą uderzać jeden piksel, a nie inny. Możemy z grubsza dopasować uderzenia fotonu do krzywej prawdopodobieństwa, ale nigdy nie możemy zrobić idealnego dopasowania, więc fotony z równomiernego źródła światła nigdy nie będą idealnie i równomiernie rozmieszczone na obszarze czujnika. Ten fizyczny aspekt rzeczywistości wytwarza większość szumu, który napotykamy na naszych fotografiach, a wzmocnienie tej formy hałasu przez wzmacniacze czujnika jest głównym powodem, dla którego zdjęcia stają się głośniejsze przy wyższych ustawieniach ISO. Niższe stosunki sygnału do szumu oznaczają, że istnieje mniejszy całkowity zakres sygnału do przechwytywania i wzmacniania fotonów, więc wyższy współczynnik SNR może pomóc złagodzić skutki szumu fotonowego i pomóc nam osiągnąć wyższe ustawienia ISO ... jednak samego szumu fotonowego nie da się wyeliminować i zawsze będzie ograniczeniem IQ aparatu cyfrowego. Oprogramowanie może odgrywać rolę w minimalizowaniu szumu wywołanego fotonem, a ponieważ istnieje pewna przewidywalność w świetle, zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu. zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu go w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu. zaawansowane algorytmy matematyczne mogą wyeliminować ogromną większość tego rodzaju szumu po zrobieniu zdjęcia i zaimportowaniu go w formacie RAW. Jedynym prawdziwym ograniczeniem byłaby tutaj jakość, dokładność i precyzja oprogramowania do redukcji hałasu.

Rozdzielczość przestrzenna to kolejny fizyczny aspekt dwuwymiarowych obrazów, z którym musimy pracować. Częstotliwości przestrzenne lub dwuwymiarowe kształty fal o różnej jasności są sposobem konceptualizacji obrazu wyświetlanego przez obiektyw i rejestrowanego przez czujnik. Rozdzielczość przestrzenna opisuje skalę tych częstotliwości i jest stałym atrybutem układu optycznego. Jeśli chodzi o czujniki, rozdzielczość przestrzenna jest bezpośrednią konsekwencją rozmiaru czujnika i gęstości pikseli.

Rozdzielczość przestrzenna jest często mierzona w parach linii na milimetr (lp / mm) lub w cyklach na milimetr. Aparat D800 z pikselami 4,3 mikrona lub 4912 rzędami pikseli na wysokości czujnika 24 mm ma zdolność 102,33 lp / mm. Co ciekawe, Canon 7D, z 3456 rzędami pikseli na wysokości matrycy 14,9 mm, jest w stanie uzyskać 115,97 lp / mm ... wyższą rozdzielczość niż D800. Podobnie Nikon D3200 z 4000 rzędami pikseli na 15,4 mm wysokości matrycy będzie w stanie osiągnąć 129,87 lp / mm. Zarówno 7D, jak i D3200 są czujnikami APS-C lub wykadrowanymi klatkami ... mniejszymi wymiarami fizycznymi niż pełnoklatkowy czujnik D800. Gdybyśmy nadal zwiększali liczbę megapikseli w matrycy pełnoklatkowej, aż będą miały ten sam rozmiar pikseli co D3200 (3,8 mikrona), moglibyśmy wyprodukować czujnik pikseli 9351 x 6234 lub 58,3 MP. Możemy doprowadzić tę myśl do skrajności, i załóżmy, że możliwe jest wyprodukowanie pełnoklatkowego czujnika DSLR o takim samym rozmiarze piksela jak czujnik w iPhonie 4 (który jest dobrze znany z robienia bardzo dobrych zdjęć za pomocą IQ, które, choć nie tak dobre jak z lustrzanki cyfrowej, jest więcej niż akceptowalny), który wynosi 1,75 mikrona. To by się przełożyło na czujnik pikseli 20571x13714 lub 282,1mp! Taki czujnik byłby w stanie uzyskać rozdzielczość przestrzenną 285,7 lp / mm, a liczba ta, jak wkrótce zobaczycie, ma ograniczone zastosowanie.

Prawdziwe pytanie brzmi, czy taka rozdzielczość w formacie DSLR byłaby korzystna. Odpowiedź na to jest potencjalnie. Rozdzielczość przestrzenna czujnika stanowi górną granicę tego, co mogłaby być możliwa cała kamera, zakładając, że masz odpowiedni obiektyw zdolny do wytworzenia wystarczającej rozdzielczości, aby zmaksymalizować potencjał czujnika. Obiektywy mają swoje własne fizyczne ograniczenia przestrzennej rozdzielczości wyświetlanych obrazów, a ograniczenia te nie są stałe ... różnią się w zależności od przysłony, jakości szkła i korekcji aberracji. Dyfrakcja jest kolejnym fizycznym atrybutem światła, które zmniejsza maksymalną rozdzielczość potencjalną, gdy przechodzi przez coraz bardziej wąski otwór (w przypadku soczewki tym otworem jest apertura.) Aberracje optyczne lub niedoskonałości załamania światła przez soczewkę, są kolejnym aspektem fizycznym, który zmniejsza maksymalną potencjalną rozdzielczość. W przeciwieństwie do dyfrakcji aberracje optyczne zwiększają się wraz ze zwiększaniem apertury. Większość soczewek ma „słaby punkt”, w którym skutki aberracji optycznych i dyfrakcji są w przybliżeniu równoważne, a obiektyw osiąga swój maksymalny potencjał. „Idealny” obiektyw to obiektyw, który nie ma żadnych aberracji optycznych i dlatego jest przeznaczony do tego celudyfrakcja ograniczona . Soczewki często stają się ograniczone dyfrakcją wokół z grubsza f / 4.

Rozdzielczość przestrzenna soczewki jest ograniczona dyfrakcją i aberracjami, a wraz ze wzrostem dyfrakcji wraz ze zmniejszaniem przysłony rozdzielczość przestrzenna maleje wraz z rozmiarem źrenicy wejściowej. Dla f / 4 maksymalna rozdzielczość przestrzenna idealnego obiektywu wynosi 173 lp / mm. Przy przysłonie f / 8 obiektyw o ograniczonej dyfrakcji jest w stanie uzyskać 83 lp / mm, czyli mniej więcej tyle samo, co większość pełnoklatkowych lustrzanek cyfrowych (z wyłączeniem D800), których zakres wynosi od około 70-85 lp / mm. Przy przysłonie f / 16 obiektyw o ograniczonej dyfrakcji może osiągnąć zaledwie 43 lp / mm, połowę rozdzielczości większości pełnoklatkowych aparatów fotograficznych i mniej niż połowę rozdzielczości większości aparatów APS-C. Szerszy niż f / 4, dla obiektywu, na który wciąż wpływają aberracje optyczne, rozdzielczość może szybko spaść do 60 lp / mm lub mniej, a nawet do 25-30 lp / mm dla ultraszybkiego szerokiego kąta f / 1.8 lub szybszych . Wracając do naszej teoretycznej 1. 75-mikronowy piksel 282mp FF czujnik ... byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw o ograniczonej dyfrakcji f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych przysłonach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ciągu ostatnich kilku dekad produkcji soczewek jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw z ograniczoną dyfrakcją f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. byłby w stanie uzyskać rozdzielczość przestrzenną 285 lp / mm. Potrzebny byłby idealny obiektyw z ograniczoną dyfrakcją f / 2.4, aby osiągnąć tak dużą rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. 4 soczewki, aby osiągnąć taką rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. 4 soczewki, aby osiągnąć taką rozdzielczość przestrzenną. Taki obiektyw wymagałby ekstremalnej korekcji aberracji, znacznie zwiększając koszty. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych aperturach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ostatnich dziesięcioleciach produkcji obiektywu jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej. Istnieją pewne obiektywy, które mogą osiągnąć niemal idealną charakterystykę nawet przy szerszych przysłonach (przychodzi na myśl wyspecjalizowana soczewka Zeissa, która rzekomo jest w stanie osiągnąć około 400 lp / mm, co wymagałoby apertury około f / 1,6-f / 1,5), są jednak rzadkie, wysoce wyspecjalizowane i niezwykle drogie. O wiele łatwiej jest osiągnąć doskonałość w okolicach f / 4 (jeśli w ciągu ostatnich kilku dekad produkcji soczewek jest jakaś wskazówka), co wskazuje, że maksymalna opłacalna, opłacalna rozdzielczość dla obiektywu wynosi około 173 lp / mm lub mniej.

Kiedy weźmiemy pod uwagę fizyczne ograniczenia do równania, kiedy wyścig megapikseli dobiegnie końca, stwierdzimy, że (przy prawie doskonałości technologicznej) najwyższa opłacalna rozdzielczość wynosi około 173 lp / mm. To około 103-megapikselowa matryca APS-C. Należy zauważyć, że tak wysoka rozdzielczość czujnika przyniesie korzyści tylko przy coraz wąskim paśmie apertury około f / 4, gdzie wydajność obiektywu jest optymalna. Jeśli korekcja aberracji optycznych stanie się łatwiejsza, możemy być w stanie osiągnąć wyższe rozdzielczości, przesuwając 200 lp / mm, ale znowu, takie rozdzielczości byłyby możliwe tylko przy maksymalnym otworze lub blisko niego, gdzie, jak we wszystkich innych przysłonach, ogólna rozdzielczość twojego kamera będzie niższa, potencjalnie znacznie niższa niż to, do czego zdolny jest sam czujnik.


Kiedy kończy się wyścig megapikseli?

Odpowiedź na to pytanie nie jest naprawdę czymś, co uważam, że ktoś ma kwalifikacje do udzielenia odpowiedzi. Ostatecznie jest to osobisty wybór i będzie zależeć od wielu czynników. Niektórzy fotografowie mogą zawsze chcieć mieć potencjał, jaki oferują czujniki o wyższej rozdzielczości przy idealnej przysłonie, o ile fotografują sceny z coraz bardziej szczegółowymi szczegółami, które wymagają takiej rozdzielczości. Inni fotografowie mogą preferować lepsze postrzeganie ostrości, które osiąga się poprzez poprawę właściwości czujników o niższej rozdzielczości. Dla wielu fotografów uważam, że wyścig megapikseli już się zakończył, a około 20mp w pakiecie FF DSLR to więcej niż wystarcza. Ponadto wielu fotografów widzi jakość obrazu w zupełnie innym świetle, preferowanie liczby klatek na sekundę i możliwości ciągłego rejestrowania większej liczby klatek w niższej rozdzielczości ma zasadnicze znaczenie dla ich sukcesu jako fotografa. W takich przypadkach wielu fanów Nikona wskazało, że około 12mp to więcej niż tyle, o ile potrafią uchwycić 10 klatek na sekundę z wyraźną wyrazistością.

Technologicznie i fizycznie jest jeszcze ogromna przestrzeń do rozwoju i dalszego zwiększania liczby megapikseli i rozdzielczości. Gdzie wyścig kończy się dla nas. Różnorodność opcji na stole nigdy nie była większa niż dziś, a Ty możesz wybrać kombinację rozdzielczości, rozmiaru matrycy i możliwości aparatu, takich jak AF, ISO i DR, które odpowiadają Twoim potrzebom.


Gdy dojdziemy do etapu zrobienia zdjęcia billboardu o wymiarach 14 x 48 stóp w rozdzielczości 300 dpi z zoomem cyfrowym 2400 mm, nie widzę, że wyścig się przed tym skończy, a może on trwać później. O ile mogę to stwierdzić, równa się 14 * 12 * 300 * 48 * 12 * 300 * (2400/35) ^ 2/1 000 000 = 40 950 638 megapikseli. Jeśli zrezygnujesz z wymogu powiększenia cyfrowego, nadal będzie to 8709 megapikseli. Przy 8709MP czujnik pełnoklatkowy o średnicy 36 mm miałby szerokość piksela około 208 nm. Procesory Intel 2012 wykorzystują technologię 22 nm .
BeowulfNode42

...nieprzerwany. Zdaję sobie sprawę, że fale światła widzialnego są większe przy około 390 nm ~ 700 nm. Ale wciąż mamy przed sobą sprawiedliwą drogę, która może to znacznie ograniczyć.
BeowulfNode42

Nie jestem pewien, co masz na myśli mówiąc o zbliżeniu cyfrowym. Jest to w zasadzie powiększenie pocztowe i nie doprowadziłoby cię nigdzie blisko 300ppi przy 14x48 stóp. To znaczy, z pewnością możesz to zrobić ... ale nie ma sensu tego robić ... po prostu miałbyś masywne rozmycie szczegółów obrazu. Może równie dobrze trzymać się drukowania w 15ppi. Jeśli chodzi o gęstość pikseli, gdy osiągną 700 nm, filtrują czerwone światło. Przy 550 nm filtrują zielone światło, a przy 460 nm filtrują niebieskie światło. Nigdy nie będzie 208 nm pikseli dla światła widzialnego.
jrista

Jeśli chodzi o dzisiejsze rozmiary pikseli ... następna generacja czujników małych rozmiarów będzie wykorzystywać piksele 0,95 µm ... czyli 950 nm. Następna generacja po tym to prawdopodobnie 825 nm, po czym osiągniemy to ograniczenie długości fali ... Nie sądzę, abyśmy zobaczyli 700 nm pikseli w jakimkolwiek czujniku. To prawda, że ​​piksele te nie będą jeszcze używane w czujnikach FF ani APS-C, ale technologicznie już zbliżamy się do limitu megapikseli (odnosząc się do odstępu pikseli). Wreszcie, nie jest naprawdę logiczne jest stosowanie wielkości tranzystorów CPU do podziałek pikseli. Intel używa 22 nm ...
jrista

... tranzystory. Piksele są różne. Obszar pikseli ma krytyczne znaczenie dla zdolności gromadzenia światła, która bezpośrednio odnosi się do poziomów hałasu. Piksel 22 nm jest po prostu nielogiczny. Rozmiary tranzystorów czujnikowych stają się już dość małe. Canon nadal używa 500 nm, ale ostatnia generacja używała tranzystorów 180 nm, a nowsze generacje używają 90 nm, a niektóre nawet 65 nm. Kolejne przystanki dla rozmiaru tranzystora czujnika to 45nm, a może 32nm (chociaż tak naprawdę nie spodziewam się, że zobaczę 32nm w użyciu aż do piksela 825nm, jeśli w ogóle go zobaczymy, ponieważ nie jest to konieczne w BSI.)
jrista

7

Pomijając problemy z pamięcią / prędkością, posiadanie większej liczby megapikseli sprawi, że absolutnie każde zrobione zdjęcie będzie lepsze. Może w niektórych przypadkach tylko trochę lepiej, ale to brzmi jak coś, co warto mieć.

Jeśli kiedykolwiek zdarzyło Ci się, że obraz cierpi z powodu mory (kolorowe paski):

Artefakty labiryntu:


(źródło: gol.com )

Aliasing:

http://cdn.asia.cnet.com/i/r/2005/dc/39095631/4.jpg

Kolorowe frędzle, fałszywe szczegóły, brak szczegółów kolorów lub jakiekolwiek inne elementy demozaikujące, wtedy Twoje problemy zostałyby rozwiązane, gdybyś miał więcej megapikseli.

W końcu widzę czujniki DSLR 80-100 MP, w tym momencie nie będziesz chciał zapisywać każdego piksela za każdym razem, ale tryb RAW ze zmniejszoną rozdzielczością, podobnie jak mRAW firmy Canon, zapewni Ci obraz z wyjątkowymi szczegółami kolorystycznymi podobnymi do tego, co jest to możliwe dzięki czujnikom Foveon, ale w znacznie wyższej rozdzielczości.


1
Jedna uwaga o s / mRAW firmy Canon. Z tych formatów korzystałem przez kilka miesięcy po zakupie Canona 7D. Choć nazywane są RAW, są bardzo dalekie od rzeczywistego macierzystego formatu RAW z perspektywy przetwarzania końcowego. Podczas przetwarzania pliku mRAW zauważyłem niezwykłe ograniczenia, jak daleko mogę przesunąć ekspozycję, nasycenie, tonację itp. W porównaniu do natywnego surowca. W wielu przypadkach mRAW nie powiodło się, gdy próbowano odzyskać światła lub podnieść cienie. Nawet z czujnikiem 100mp nadal wolałbym natywny format RAW, ponieważ interpolacja pikseli narzuca wiele ograniczeń.
jrista

„Kolorowe frędzle, fałszywe szczegóły, brak szczegółów w kolorze lub jakiekolwiek inne elementy demozaikujące, wtedy Twoje problemy zostałyby rozwiązane, gdybyś miał więcej megapikseli”. Zawsze zakładałem, że soczewki, a nie czujnik, tworzą kolorowe obwódki: w jaki sposób rozwiązałaby to wyższa rozdzielczość czujnika? Czy nie sprawiłoby to, że stałoby się „gorsze”, tj. Przesunięcie granic soczewek, aby artefakty i ogólne defekty optyczne były bardziej widoczne?
MattiaG

@MattiaGobbi: Odnosi się do artefaktów odkażania, które obejmują formę obramowania kolorów, które wynika z bardzo podstawowych algorytmów odkażania, a nie z obramowaniem kolorów wytwarzanym przez aberracje obiektywu.
jrista

@jrista - Dzięki, przyjrzę się temu. Nie mogę nie myśleć, że demozaikacja w swojej podstawowej formie ma jedynie na celu zmiękczenie obrazu, ponieważ trzy piksele na cztery na ostatecznym obrazie mają, mówiąc inaczej, kolor, który jest średnią kolorów otaczającego piksela. Przyczynia się to również do niskiej dokładności kolorów na krawędziach. Czy bardziej złożone artefakty mogą być generowane przez algorytmy mające na celu zwiększenie ostrości i koloru w ramach procesu demoisaisingu?
MattiaG

@MattiaGobbi: Celem demozaikowania nie jest zmiękczenie obrazu ... jego interpolacja poszczególnych kanałów kolorów z czujnika Bayera na piksele RGB. Istnieje wiele algorytmów do demozaikacji. Jednym z najczęstszych jest demosykacja AHD, która jest algorytmem ważonym, który eliminuje większość otoczek kolorów i daje dość ostre wyniki. Istnieje również wiele innych podejść, które są używane w otwartych edytorach RAW i narzędziach do astrofotografii, które są albo szybsze, dokładniejsze, zaprojektowane w celu wydobycia jak największej ilości szczegółów, itp.
jrista

2

Nie zgadzam się absolutnie z tym, co powiedzieli inni, ale odpowiedź częściowo zależy od tego, co najbardziej cenisz. Najbardziej interesuje mnie wysoka wydajność przy niskim poziomie szumów ISO, przy czym rozdzielczość pikseli jest ważna, ale drugorzędna. Inne mają bardzo różne priorytety. Mam aparat A77C A77C o rozdzielczości 24 MP, który jest w czołówce wydajności mp APSC, ale zauważalnie za niektórymi aparatami APSC w obszarach, na których najbardziej mi zależy.

Po przyjrzeniu się wynikom z D700, D3, D3s, D3x, 5DMkII, 5DMkIII, A800 i D4 doszedłem do wniosku, że obecnie wyścig megapikseli wyprzedził wysoką wydajność ISO i że dla moich celów „najlepsza wydajność” aparat to Nikon D3s wydany w październiku 2009 roku. Według liczb nic innego nie pasuje do tego i zgodnie z tym, jak rozumiem, wydajność faktycznie działa w prawdziwym świecie, nic innego się nie zbliża.


Następujący rodzaj materiałów powoduje wojny z płomieniami. Staram się po prostu opisać to, co widzę. Oczy innych ludzi mogą działać inaczej :-).

Osobiście jestem rozczarowany aparatem D800 i jego matrycą 36 mp. Miałem nadzieję na coś, co byłoby wyraźną głową i ramionami nad D700 i które mogłoby delikatnie odsunąć D3.

Czujnik DXOMark ocenia ocenę ISO przy słabym świetle

w żadnym wypadku nie jest najlepszym przewodnikiem po tym, jak dobrze radzi sobie aparat w takich sytuacjach w rzeczywistych warunkach, ale jest dobrym przewodnikiem po tym, czego można się spodziewać. Ocena określa ustawienie ISO, przy którym kamera spełnia 3 minimalne wymagania.

4-letni D700 ma niski wskaźnik ISO DxO na poziomie ISO 2303 ISO, a D800 na ISO 2853. Nowy D4 ma ocenę 2965 ISO, a jedynym i wciąż królem tego miernika jest (staje się legendarny) D3 przy ISO 3253. ALEoceny te są dostosowywane do standardowego rozmiaru obrazu 12 mp, przy czym ocena ISO w teście jest skalowana przez współczynnik kwadrat_koot (megapiksele / 12 megapikseli). I odwrotnie, aby uzyskać to, co zobaczyli w teście, przeskaluj raing DOWN o sqrt (12 / mp). Zatem D800 o 36 mp jest współczynnikiem 0f sqrt (36/12) = sqrt (3) = 1,732 wyższy na wykresie raportowania niż faktycznie zmierzony. Mierzyli więc jako 2853 / 1,73 = ~ 1650 ISO. Uzasadnieniem dla skalowania jest to, że „hałas” na obrazie jest matematycznie zmniejszony przez próbkowanie w dół z powodu uśrednienia informacji w sąsiednich komórkach. Teoretycznie sensowne jest skalowanie o współczynnik związany z sqrt (megapiksele). Ale patrząc na obrazy nie jestem przekonany. Mówią, że kamera z większymi stosunkami szumu absolutnego do sygnału na piksel, ale więcej mp zapewni lepszy wynik po zmniejszeniu skali. Matematyka mówi tak. System oko mózg mówi, że efekt jest znacznie mniejszy niż sugeruje to skalowanie. Mógłbym prawdopodobnie wykopać konkretne przykłady, z których wyciągnąłem te wnioski jakiś czas temu, ale jest to subiektywne i istnieje wystarczająco dużo porównań, aby każdy mógł znaleźć swoją ulubioną wersję.

EOS 5D MkII (NOT III) ma ocenę DXO ISO 1815 względem ISO 2303 dla D700. Jednak porównanie zdjęć identycznych scen zrobionych w identycznych warunkach oświetleniowych przy użyciu równoważnych obiektywów przy wysokich ustawieniach ISO i przekonwertowanych na ten sam rozmiar obrazu pokazuje niezwykle znaczącą różnicę między nimi. Tak wspaniale, że nawet z tego powodu nie wziąłbym pod uwagę 5DkII.

Nie widziałem jeszcze wystarczającej mocy wyjściowej D800, aby nie zgodzić się z wnioskami, ale to, co widziałem, wskazuje, że używany aparat D700 może być bardzo atrakcyjnym i być może lepszym wyborem, jeśli słabe oświetlenie i wysoka czułość ISO są Twoim priorytetem . A D3s znów jest lepszy od głowy.


Znakomity artykuł do przeczytania . Uzupełnia doskonałą pozycję JRisty.
Hałas, zakres dynamiki i głębia bitów w cyfrowych lustrzankach

Odnosi się również do:

IRIS - bezpłatne oprogramowanie do przetwarzania obrazów z nastawieniem na astronomiczne fotografie - ale przydatne w wielu innych przypadkach.

Darmowe oprogramowanie do przetwarzania obrazu IMAGEJ od US NIH


Czy możesz podać link, który pokazuje zdjęcia 5D2 i D700 identycznych scen zrobionych w identycznych warunkach oświetleniowych przy użyciu równoważnych obiektywów przy wysokich ustawieniach ISO i przekonwertowanych na ten sam rozmiar obrazu? Trudno mi uwierzyć, że różnica jest „niezwykle znacząca”
Matt Grum,

@MattGrum - Spróbuję znaleźć obrazy, które przekonały mnie, że D700 był moim ultimatetargetem (jeśli zignorujemy D3). Czekałem na D700 lub coś w tym rodzaju, więc D800 jest ogromnym rozczarowaniem. Cudowna zabawka, ale nie kolejny krok w stronę „zobaczenia w ciemności”, na którą liczyłem. Sony będzie miało 2 x FF na koniec tego roku i należy użyć czujnika D800 mniej więcej, aby być może druga nadzieja. ALE Sony ma bardzo słaby zapis z wysokim szumem ISO w porównaniu do Nikona z tym samym czujnikiem. Mój A700 był <D300 do wersji 4 oprogramowania.
Russell McMahon

3
Jest też kwestia, która często jest pomijana podczas omawiania tego problemu, a mianowicie to, że można zastosować silniejszą redukcję szumów do obrazów o wysokiej rozdzielczości megapikselowej bez artefaktów. Wynika to z faktu, że hałas jest znacznie drobniejszy i wpada między detale, zamiast je zasłaniać. Jeśli proste uśrednienie próbkowania w dół poprawia hałas o współczynnik 1,73, wyrafinowany schemat redukcji szumów powinien być w stanie działać znacznie lepiej. W przypadku stałej ilości przychodzącego światła zwiększenie liczby megapikseli daje więcej informacji (o tym, gdzie światło pada), nawet jeśli szum na piksel jest większy.
Matt Grum

2

Kiedyś myślałem, że posłowie są przereklamowani, dopóki nie przeprowadziłem eksperymentu z oversamplingiem. Zainspirowany kciukową regułą próbkowania dźwięku, aby próbkować dwukrotnie potrzebną częstotliwość. Fale 22K są próbkowane z 44k, ale jeśli narysujesz liczby, dostaniesz tylko falę, która jest w doskonałej fazie. Możesz także zaryzykować próbkowanie samych zer. Potrzebujesz co najmniej 4x oversamplingu, aby uzyskać falę i jej kształt (może to być piłokształtny lub sinusoidalny, którego nie znasz z częstotliwością próbkowania 2x). Profesjonalna próbka sprzętu audio wewnętrznie 192 kHz, a następnie próbkowanie w dół do 48 k lub 44 k.

Odkryłem, że to samo dotyczy zdjęć - jeśli chcesz skończyć z obrazem 1024 x 768, najlepszą częstotliwością, jaką możesz osiągnąć, jest to, że co drugi piksel jest ciemny, a naprzemiennie co drugi piksel jest jasny (nazwijmy to teksturą). Jeśli złapiesz obraz w rozdzielczości 1024x768, możesz przeoczyć fazę tej tekstury, lub może on po prostu zostać rozmazany z powodu niskiej rozdzielczości rzeczywistej systemu, lub demaskowanie go przez bayera z pewnością go zepsuje. Musisz więc uchwycić przynajmniej 4096x3072 obraz bez uwzględnienia demosakowania Bayera, więc wybrałbym dwa razy więcej, aby uwzględnić bayer, tj. 8192x6144.

Próbkowanie w dół powinno być lepsze niż dwu- lub dwubiegunowe, aby uzyskać korzyść. Najlepszy jest filtr na bazie cynku, np. Lanzcos.

1: 1 vs oversampling, a następnie próbkowanie w dół z lanczos:

Nadpróbkowanie


Słuszne uwagi. Zauważ, że ponieważ obraz jest obrazem 2D, wzrost MP jest kwadratem częstotliwości nadpróbkowania. Tak więc nadpróbkowanie 2X jest 4 razy więcej MP, a nadpróbkowanie 4X to 16 razy więcej MP, nadpróbkowanie 8X to 64 razy więcej MP.
BeowulfNode42

Wiem. zauważ, że nie liczę (w przeciwieństwie do większości ppl) rozdzielczości w deputowanych. Pracuję z aparatami w wielu różnych proporcjach (np. 1x12000, który jest wtedy kamerą 0,012MP, ale była to najlepsza rozdzielczość w jednej osi niż kamera 4: 3 36MP). widać to na przykładach mojej rozdzielczości.
Michael Nielsen

1

Kiedyś myślałem, że megapikselowy wyścig był trochę głupi, dopóki nie zdałem sobie sprawy, że wysokiej klasy aparaty 36 MP sprawiają, że sprzęt niskiej klasy (ale doskonale użyteczny) jest znacznie tańszy. Jeśli ktoś musi kupić aparat, który może drukować odbitki w rozmiarze billboardu, świetnie! Tymczasem reszta z nas robi dużo świetnych zdjęć (dla naszych skromnych potrzeb) na naszych iPhone'ach i prosumenckich Nikonach.


IPhone 4 i niektóre z najnowszych androidów robią niesamowite zdjęcia. Oczekuję, że za kilka lat całkowicie zjedzą rynek p + s. I oczekuję, że zjedzą na rynku superzoom / dslr z niższej półki. Dobra wiadomość jest taka, że ​​prawo Moore'a obowiązuje, więc nasze lepsze lustrzanki APS-C będą się nadal poprawiać.
Pat Farrell,

Prawo Moore'a też się liczy w optyce? Chodzi mi o to, że część „cyfrowa”, w której może działać prawo Moore'a, zaczyna się dopiero w korpusie aparatu.
Esa Paulasto,

0

Dam ci krótką i przydatną odpowiedź (mam nadzieję)

Wiele odpowiedzi udzielonych przede mną ma świetne informacje, więc nie odrzucaj ich

Ale żeby odpowiedzieć na pytanie: jak często przyda się 36MP? Zależy od twojej sytuacji Amator, który nigdy nie drukuje i wyświetla tylko cyfrowo. Nigdy.

Amator, który czasami drukuje. Czasami, jeśli okazjonalnie drukuje większy niż A4

Pro, dla różnych wersji. Całkiem często

Dla osób, które nigdy nie drukują lub nie przekraczają rozmiaru plakatu, nigdy nie zobaczysz żadnej przydatności w niczym większym niż 10-12 i ma to wady np. Podczas fotografowania RAW (wszyscy robicie RAW, prawda? ) rozmiary obrazów w 21MP 5DmkII wynoszą około 24 Mb, powiedziano mi, że rozmiary obrazów w D800 wynoszą około 30 Mb, co może bardzo szybko wypełnić karty. Więc jeśli masz dobry aparat 10-12 MP i nie drukujesz więcej niż plakat, potroisz liczbę zdjęć na karcie i nie będziesz w stanie odróżnić, niż gdybyś wydał ogromną ilość więcej na D800

mam nadzieję, że to pomoże


3
Co powiesz na kadrowanie? Np. Amator bez profesjonalnego ultra-teleobiektywu. Czy megapiksele nie pomogłyby?
Imre

1
Jestem z @Imre tutaj ... więcej megapikseli ma ogromne znaczenie, gdy nie stać Cię na ponad 10 000 $ soczewek niezbędnych do uzyskania wymaganego zasięgu do robienia potrzebnych zdjęć. Kadrowanie jest jedyną alternatywą, a aparat taki jak D800 oferuje niesamowite możliwości kadrowania. Jeśli chodzi o przestrzeń ... przestrzeń jest tania. Możesz uzyskać 128 GB przestrzeni CF za kilkaset dolarów, co stanowi mniej niż 10% kosztu samego D800. Względnie mówiąc, zdjęcia w rozdzielczości 30 MP to niewielka cena za IQ i możliwość przycinania.
jrista

Robert Capa słynie: „Jeśli twoje zdjęcia nie są wystarczająco dobre, nie jesteś wystarczająco blisko” Kadrowanie po fakcie nigdy nie zastępuje nauki prawidłowego kadrowania.
Richard

Kadrowanie po fakcie nigdy nie zastępuje nauki prawidłowego kadrowania. O ile nie będziesz fotografować dzikiej przyrody, nierzadko będziesz potrzebować obiektywu dłuższego niż 200 mm, a na tej ogniskowej lub przy obiektywach dostępnych jest kilkadziesiąt obiektywów za całkiem tanio. Pracując w tej branży, użyłem soczewki dłuższej niż 200 mm tylko w dwóch okolicznościach (dla Formuły 1, gdzie ze względów bezpieczeństwa nie mogliśmy podejść bliżej i dzikiej przyrody) Najczęściej są to soczewki 50 mm, 85 mm i 100 mm, a więc 24-70 70-200 obejmie wszystko
Richard

1
Tak, chyba że fotografujesz dziką przyrodę - właśnie to lubi wielu amatorów.
Imre

0

Właśnie dostałem D800E, do którego przeniosłem się z D200. Zmierzyłem 100 lppm z tą rzeczą, używając autofokusa z sigma 24 1.8 na f4. Nie wydrukowałem jeszcze niczego, ponieważ miałem to tylko 2 dni. Byłem w stanie podniecić mory strzelając do testowego celu, ale było to widoczne tylko na monitorze, CaptureNX2 wyeliminował go przy niskim ustawieniu demosiaku. Mam 55 mikro nikkor, który wygląda ostrzej, ale tak naprawdę nie może być lepszy niż 100 z powodu czujnika. Dużą zaletą jest oczywiście to, że 100 lppm jest rozproszonych na matrycy FF i jest to bardzo dużo nieruchomości. Wreszcie mogę strzelać bez tak ścisłego komponowania kadru. Mogę nawet sfotografować 645 lub kwadrat - to będzie wielka swoboda dla mojego stylu, w którym lubię kadrować dla tego obiektu. a przynajmniej mam taką nadzieję


-3

Od dziesięcioleci nikt nie robi wspaniałych zdjęć cyfrowych. Na przełomie wieków wielu ludzi uważało, że film jest o wiele lepszy. Obecnie argument ten został rozstrzygnięty.

Nie jest prawdą, że więcej pikseli oznacza ostrzejszy obraz, istnieją ograniczenia wynikające z dyfrakcji soczewki. Oczywiście, jeśli użyjesz większego czujnika, możesz uniknąć tego problemu w przypadku sensora praktycznego, dlatego wielu profesjonalistów przechodzi teraz poza 35 mm (pełna klatka) na obrazy 6x4,5.

Często liczba megapikseli to po prostu marketingowy puch, aby obciągać ludzi, którzy nie wiedzą lepiej. Ale czasem więcej jest lepsze.

To bardziej złożony temat, niż sugerują uprzedzenia twojego pytania.


To, co mówisz o dyfrakcji, jest w pewnym sensie prawdą. Roger Cicala z obiektywrentals.com ma fajny post na blogu z liczbami, które pokazują (mały) efekt dyfrakcji.
Håkon K. Olafsen
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.