Czy 14-bitowy RAW jest lepszy niż 12-bitowy RAW?


13

Zwykły obraz JPEG ma tylko 8 bitów do przechowywania informacji o tonie każdego piksela. Przechowując obraz w formacie RAW (na przykład DNG), możemy przechowywać ton przy użyciu większej liczby bitów na piksel, co daje nam szerszy zakres i więcej opcji przetwarzania na komputerze.

Mój obecny aparat może rejestrować zdjęcia jako 12-bitowe pliki DNG i zwykle używam formatu RAW. Zauważyłem, że nowsze modele lustrzanek cyfrowych mogą przechowywać 14 bitów na piksel. Wydaje mi się, że zdobycie jeszcze 2 bitów to ogromna zaleta, ale czy w rzeczywistości jest to duża różnica? Czy dostrzegę różnicę w przetwarzaniu końcowym? Czy różnica byłaby większa w ciemnych (niedoświetlonych) lub rozjaśnionych (prześwietlonych) częściach obrazu?


8
Mała, ale ważna korekta: pliki JPEG przechowują 8 bitów na kanał na piksel: 8 bitów czerwieni, 8 zieleni, 8 niebieskich, łącznie 24 bity. Podobnie RAW przechowuje 12/14 bitów na kanał na piksel: łącznie 36/42 bitów na piksel. 8 bitów na piksel to format GIF (lub 8-bitowy PNG): maksymalna paleta 256 kolorów, co nie jest dobre dla zdjęć.
Mark Whitaker

3
+1 do korekty, ale pamiętaj, że nieprzetworzony plik naprawdę przechowuje tylko tę liczbę bitów na piksel, przy czym każdy piksel - każda strona zdjęcia - jest filtrowany do określonego koloru. Konwersja z RAW pociąga za sobą demosicing, w którym informacje w pełnych kolorach są sprytnie ekstrapolowane od sąsiadów. Tak więc RAW tak naprawdę nie przechowuje 36/42 bitów na piksel. (Zakładając, że jest to standardowa matryca filtrów Bayera lub podobnego filtra kolorów, co jest normalne dla wszystkich aparatów Foveon z wyjątkiem Sigmy.)
Proszę przeczytać mój profil

@ MarkWhitaker - dalsza korekta (jeszcze mniejsza ;-): RAW (w większości aparatów) przechowuje 12/14 bitów na piksel jednego z 3 podstawowych kolorów. Pozostałe dwa kolory są dodawane w ramach przetwarzania końcowego przez demasowanie Bayer (lub inny wzór). Wyjątkiem są czujniki typu Foveon, w których czujnik rejestruje 3 kolory na piksel.
ysap

Większość obrazów JPEG przechowuje obraz w formacie YCC ( en.wikipedia.org/wiki/YCbCr ). Liczba bitów dla każdego kanału (luminancja, trójkąt niebieski, trójkąt czerwony) jest określana podczas kompresji obrazu. Renderowanie obrazu odbywa się zwykle w RGB888, co prowadzi do niewielkiej dodatkowej utraty (więcej niż kompresji) informacji. Istnieją również pliki JPEG CMYK i YCCK, chociaż są one rzadsze, i istnieją pliki JPEG „12-bitowe”, które renderują do RGB [12] [12] [12] zamiast RGB [8] [8] [8]
rsaxvc

Odpowiedzi:


14

To robi wymierną różnicę, ale nie opowiada całej historii. Wynik portretu DxOMark jest techniczną oceną wydajności różnych kamer, szczególnie pod względem głębi kolorów, którą dokładnie opisują jako posiadającą „ korelację ” z czułością kolorów, która jest rzeczywistym niuansem kolorów.

Jeśli spojrzysz na wyniki tej metryki , zobaczysz, że najlepiej oceniane kamery mają 16 bitów na piksel, a następnie kamery z 14 bitami na piksel. Drogie cyfrowe nośniki średniego formatu uzyskują wyniki DxOMark wynoszące około 24–26, a następnie bardzo dobre lustrzanki z zakresem 23–25. Następnie pojawiają się kamery z 12 bitami / pikselami - myślę, że najwyższy ma 22 punkty.

Należy jednak pamiętać, że DxOMark opisuje różnicę 1 w tym wyniku jako „ledwo zauważalny”. To jest, jeśli ledwo zauważasz bardzo ostrożnie. Dla większości ludzi znacznie większe różnice w wynikach nie są zauważalne w rzeczywistych wynikach.

Wpływ na rzeczywisty świat i ostateczna percepcja to jeden z powodów, dla których nie jest to wielka sprawa. Ale jest więcej! Jeśli przejdziesz dalej w dół listy, znajdziesz starsze kamery z 14-bitową głębią i niższymi wynikami niż nowsze 12-bitowe kamery. Tak więc sama liczba nie opowiada też całej historii technicznej. Nowsze czujniki i technologia przetwarzania poprawiają rzeczywiste wyniki na inne sposoby. Jeśli porównujesz obecne pokolenia, większa głębia jest lepsza, ale nie zakładaj, że to wszystko.

Jeśli chodzi o to, czy daje to więcej miejsca w cieniach lub w światłach: nie jest tak naprawdę, że bity są dodawane na obu końcach - zamiast tego jest tylko większa gradacja. Wyobraź sobie, że jedna gazeta nadaje filmom od jednej do czterech gwiazdek, a inna używa skali 1-10. „10” z drugiej gazety niekoniecznie jest o wiele lepsze niż czterogwiazdkowa recenzja z pierwszej, ale dodatkowe „bity” pozwalają na więcej niuansów. To ten sam pomysł.

Te czujniki nadal cierpią z powodu ostrego odcięcia świateł , więc jak zawsze w przypadku cyfrowej najlepiej jest je odsłonić, aby zostały zachowane i wyciągnęły szczegóły z cienia: i tak, lepsza głębia pomoże w pewnym stopniu, jeśli chcesz opublikować proces rozjaśniania ciemnych obszarów, ponieważ (teoretycznie) będzie więcej niuansów do rozciągnięcia.

Ważną rzeczą do zrozumienia jest to, że 12 lub 14 bitów z czujnika, podczas gdy pliki JPEG używają krzywej gamma, która pasuje do ludzkiej percepcji. JPEG to nie tylko sposób kompresji danych - należy zastosować krzywą, aby obraz wyglądał poprawnie. Ponieważ ta krzywa „ściska” bity, jest to jeden z powodów, dla których różnica w postrzeganiu jest mniejsza niż można by się spodziewać. (Ale posiadanie tych danych liniowych w nie zakrzywionej formie jest częścią tego, co daje RAW jego elastyczność: łatwo jest wybrać inną krzywą.)

Chodzi mi jednak o to, że nie spojrzałbym na liczbę podstawową, aby podjąć decyzję między dwiema kamerami. Zamiast tego spójrz na końcowe wyniki.


Kolejne zewnętrzne odniesienie, przedstawiające ten sam punkt widzenia, z sekcji witryny internetowej American Society of Media Photographers „Digital Photography Best Practices and Workflow” na temat czujników :

W chwili pisania tego tekstu [ nb 2009 lub wcześniej ], nie ma 35 mm lustrzanki cyfrowe, które mają 14-bitową zdolność przechwytywania wyraźnie pokazują przewagę nad jakością obrazu 12-bitowego przechwytywania .

Niektórzy producenci czujników średnioformatowych twierdzą, że mają przewagę dzięki 16-bitowemu przechwytywaniu. Jednak nigdy nie widzieliśmy badań (innych niż przeprowadzone przez producenta), które pokazują, że większa głębia bitowa przekłada się na wyższą jakość obrazu na podstawie samego 16-bitowego przechwytywania. Zasadniczo różnica między przechwytywaniem 14-bitowym a 16-bitowym nie byłaby widoczna (w każdym razie dla ludzi), chyba że na obrazie zastosowano by mocno stromą krzywą tonalną (rzędu 6-7 stopni).

(Podkreślenie dodane. Dzięki wcześniejszej odpowiedzi Aarona Hockleya na wskaźnik.)


Świetna odpowiedź! Myślę jednak, że warto wziąć pod uwagę sposób, w jaki bity są dzielone między światła, półcienie i cienie. Wspomniałeś, że „nie jest tak, że bity są dodawane na obu końcach, zamiast tego jest po prostu więcej miejsca na gradację”. O ile mi wiadomo, poziomy są przydzielane w taki sposób, że podświetlenia stają się większe, następnie półcienie, a następnie cienie, a następnie ciemności. Zwiększenie głębokości bitów z 12 (4096 poziomów) do 14 (16384 poziomów) POWINNY mieć wpływ na podświetlenia ... i znaczące na zejście podświetlenia, gdy osiągną szczyt. Masz dodatkowe 12 288 dyskretnych poziomów luminancji powyżej 12-bitów.
jrista

Zakładając binarny rozkład poziomów w górnych światłach, światłach, półcieniach, cieniach i cieniach w 12-bitach: 2048, 1024, 512, 256, 256. Dla 14-bitów: 8192, 4096, 2048, 1024, 1024. ( Trochę wymyślony, ale pokazuje sens.) Ta różnica powinna być widoczna w podświetleniach, szczególnie w przypadku RAW (większość surowych narzędzi stosuje krzywą tonalną podczas importu), i powinna zapewniać płynniejszy, łatwiejszy do odzyskania spadek, zanim znikną podświetlenia.
jrista

1
@jrista - odwróć tę myśl do góry nogami. Problem z podświetleniem jest nieuniknionym trudem, związanym z pełną studnią pojemności stron. Większa głębokość bitów nie oznacza większych studni; chodzi o to, że próbki są pobierane dokładniej. Ponieważ jaśniejsze dane mają już więcej bitów, dodanie większej ilości próbkowania nie kosztuje tyle, co dodanie do bardziej ciemnych obszarów, które są rzadziej reprezentowane.
Proszę przeczytać mój profil

W twoim przykładzie przejście od 2048 do 8192 wynosi 4 ×, a więc od 256 do 1024. Ale najwyższy poziom miał już tysiące poziomów niuansów. Zastanów się jeszcze bardziej, gdzie można przejść z 16 możliwych poziomów ciemnych kolorów do 64 - to znacznie bardziej znacząca zmiana niż z 4096 na 16384, nawet jeśli później jest znacznie więcej.
Proszę przeczytać mój profil

1
Wiem, że prześwietlenia są trudnym problemem, ale myślę, że kiedy masz więcej poziomów do złagodzenia, to MNIEJ problemu. W pełni się z tobą zgadzam, że posiadanie większej liczby bitów w cieniu ogranicza potrzebę martwienia się o zliczanie fotonów.
jrista

12

Więcej bitów zwykle nie oznacza większego zasięgu, ale większą precyzję. Innymi słowy, końce łuski, najciemniejsza czerń i najbielsza biel, pozostaną tam, gdzie się znajdują (na poziomie 0 i wartości maksymalnej), ale liczba wartości między nimi będzie większa z większą liczbą bitów.

Szybko popadasz w malejące zyski, ponieważ po prostu nie ma potrzeby tak dużej precyzji, a czujnik aparatu i tak często nie jest w stanie rozwiązać tej precyzji.


Tak. :) To miły, o wiele bardziej zwięzły sposób powiedzenia tego samego co moja odpowiedź. +1 i witaj w Stack Exchange!
Proszę przeczytać mój profil

4

Myślę, że istnieje pewne zamieszanie związane z różnicami między 12 a 14-bitowym RAW, jeśli chodzi o jego wpływ na zakres dynamiczny.

Rozumiem, że 14-bitowy RAW nie rozszerza zakresu dynamicznego. Nie rozszerza ani świateł, ani cieni. Daje to bardziej stopniową informację pomiędzy najciemniejszymi i najjaśniejszymi szczegółami, które czujnik może uchwycić (to tak, jakby uzyskać 4 razy więcej odcieni szarości). Jestem pewien, że nie zauważyłbym żadnej różnicy między 12 lub 14-bitowymi nieprzetworzonymi obrazami zarejestrowanymi przez ten sam czujnik.

Dla zabawy spójrz na ten test Color IQ , jestem prawie pewien, że ma mniej niż 12-bitową stopniowość.


1
Ten test ostrości kolorów jest świetny! To (ponownie) udowodniło mi (dla siebie), jak ważny jest dobry monitor. Mam świetnego Dell U2410 podłączonego do laptopa HP ze średnim jasnym ekranem (prawdziwe kolory lub jakkolwiek nazywają tę okropną technologię). Moja przeglądarka jest otwarta na pulpicie laptopa i po raz pierwszy wykonałem ten test na tym monitorze. W wieku 40 lat mam 12 punktów, co wcale nie jest złe. Potem postanowiłem to zrobić ponownie, tym razem na monitorze Dell. Mój wynik z dobrym monitorem jest teraz prefektem 0!
ysap

W każdym razie posiadanie bardziej pośrednich poziomów koloru jest zdecydowanie częścią definicji zakresu dynamicznego. Zasadniczo jest to stosunek wartości maksymalnej do minimalnej mierzalnej jednostki.
ysap

... jeszcze jedno - ten test kolorów jest wyświetlany na monitorze, który w najlepszym przypadku jest 10-bitowy, a przeglądarka prawdopodobnie nie jest w stanie renderować więcej niż 8 lub 10 bitów, więc tak, test ma mniej niż 12 bitów.
ysap

Nie jestem pewien, czy to bardziej niż stycznie istotne dla pytania, ale ten test jest tak interesujący, że w każdym razie dostaje ode mnie +1. :)
Proszę przeczytać mój profil
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.