Inni już wyjaśnili, dlaczego technicznie to nie zadziała. Chcę dotknąć, dlaczego to nie zadziałałoby praktycznie .
Jeśli przechowywanie danych nie stanowiło problemu, czy jest jakiś powód, dla którego nie mogłaby to być norma, przynajmniej w fotografii profesjonalnej i artystycznej?
Zastanów się, jak wiele różnych warunków oświetleniowych możemy chcieć robić. Nawet ignorując skrajności, takie jak astrofotografia (gdzie często fotografujesz małe plamki światła otoczone prawie całkowitą czernią), nadal masz wieczorne lub nocne zdjęcia naziemne oraz jasno oświetlone, pokryte śniegiem zimowe krajobrazy. Użyję tych dwóch ostatnich jako przykładów.
Również mam zamiar założyć, że aby dokładnie odtworzyć każdą żądaną ekspozycję, musimy narażać czujnika do punktu pełnego nasycenia.
Zakładam również, że możemy odczytać wartości czujników w sposób nieniszczący. (Jest to prawdopodobnie jeden z tych problemów, które należą do kategorii „rzucić wystarczającą ilością pieniędzy na problem i może być rozwiązany”).
W przypadku fotografii nocnej musielibyśmy odsłonić czujnik na bardzo długi czas, aby nasycić wszystkie piksele, co oznacza, że każde zdjęcie, bez względu na to, czego naprawdę chcemy , będzie trwać absurdalnie długo. Klasyczne zdjęcie tancerzy w barze na świeżym powietrzu staje się prawie niemożliwe, ponieważ cóż, możesz być w stanie zrobić kilka z nich przez cały wieczór. Niedobrze. Nie możemy więc narażać się na nasycenie, a przynajmniej nie bez rozróżnienia. (Wystawienie na nasycenie pewnego odsetka pikseli jest równie bezużyteczne, ale z różnych powodów; spróbuj uzyskać odpowiednią ekspozycję podczas robienia zdjęcia kominka z płonącym ogniem. To prawie niemożliwe; bez względu na to, jak bardzo się starasz, niektóre piksele zostaną przesadzone lub ogromne połacie obrazu zostaną okropnie niedoświetlone).
Podczas fotografowania jasno oświetlonego, pokrytego śniegiem krajobrazu, takiego jak widok zimowy w ciągu dnia, gdy słońce nie świeci, ekspozycja, do której dąży automatyczny system ekspozycji aparatu („18% szarości”), jest żałośnie niewystarczająca. Dlatego często widzisz zdjęcia śniegu, który jest ciemny, a śnieg wydaje się bardziej jasnoszary niż biały. Z tego powodu często używamy dodatniej kompensacji ekspozycji , która powoduje, że śnieg jest eksponowany jako prawie nasycona biel. Oznacza to jednak, że nie możemy polegać na systemie AE aparatu, aby określić, kiedy zakończyć ekspozycję: jeśli to zrobimy, takie zdjęcia będą zawsze niedoświetlone .
Innymi słowy, narażenie na pełne nasycenie jest w wielu przypadkach niepraktyczne, a narażenie na zadowolenie systemu AE jest w wielu przypadkach nieodpowiednie. Oznacza to, że fotograf nadal będzie musiał dokonać pewnego wyboru, w tym momencie co najmniej równie dobrze radzimy sobie z tym, co mamy, a fotografami przywykliśmy, ulepszając systemy AE i ułatwiając fotografowi ( łatwiej?) dostęp do ustawień kompensacji ekspozycji. Zwiększając praktycznie użyteczny zakres dynamiczny czujnika, możemy pozwolić (nawet) na większą swobodę zmian ekspozycji podczas przetwarzania końcowego; oryginalne cyfrowe lustrzanki były koszmarnie drogie, ale pod tym względem naprawdę okropne w porównaniu do dzisiejszych modeli nawet podstawowych.
Wszystko to można w pełni zrobić w ramach tego, co już mamy. Nie oznacza to, że radykalna poprawa użytecznego zakresu dynamicznego czujnika jest łatwa , ale prawdopodobnie jest znacznie łatwiejsza niż to, co proponujesz, i jest to problem, nad którym sprzedawcy mają doświadczenie w pracy.
Specjaliści niemal z definicji wiedzą, jak korzystać ze sprzętu w swojej branży. Tak naprawdę nie jest inaczej, jeśli są fotografami lub pilotami promów kosmicznych . Zwłaszcza, gdy można to zrobić bez powodowania przeciążenia informacji, zwykle lepiej dać użytkownikowi pełną kontrolę nad profesjonalnym sprzętem. Moim zdaniem obecne wysokiej klasy lustrzanki cyfrowe są całkiem dobre, jeśli chodzi o trafienie w to.