Po co przechwytywać 14-bitowe obrazy i edytować je na 8-bitowych monitorach?


37

Jestem trochę zmieszany. Jeśli moja lustrzanka przechwytuje 14-bitowy obraz podczas fotografowania RAW. Czy nie potrzebuję też 14-bitowego monitora, aby w pełni wykorzystać przechwytywanie w formacie RAW? Jaki jest sens przechwytywania obrazu w 14 bitach oraz otwierania i edytowania tylko 8-bitowego monitora głębokości?



1
Wystarczy zastosować co najmniej 10 bitów RAW, aby zastosować krzywą gamma wymaganą przez sRGB, ponieważ przechwytywanie jest liniowe.
Mark Ransom

Odpowiedzi:


52

Możesz edytować swoje zdjęcia za pomocą starego, spalonego czarno-białego monitora CRT i nadal jest to ta sama sprawa: liczą się dodatkowe bity.

Oto symulacja 14-bitowego histogramu (A) i 8-bitowego (B). Oba są na niebieskiej siatce, która symuluje 8-bitowy format wyświetlania lub 8-bitowy format pliku.

W B wszystkie linie pokrywają się. (Format 8-bitowy jest wystarczająco dobry, ponieważ jest zbliżony do tego, co nasze oczy mogą dostrzec na różnych poziomach szarości)


Teraz. Wyobraź sobie, że musisz przesunąć histogram, ponieważ chcesz uzyskać jaśniejszy, szczęśliwy obraz.

Różne poziomy po lewej stronie przesuń w prawo.

W twoim surowym pliku jest wystarczająco dużo „podpoziomów”, aby wypełnić te same niebieskie linie. (DO).

Ale dane na 8-bitowym obrazie zaczynają tworzyć „luki” (czerwona strefa). Spowoduje to problemy z pasmowaniem, wzrost hałasu itp

wprowadź opis zdjęcia tutaj

Ważną różnicą jest to, że manipulujesz lub kontrolujesz swój obraz i masz dodatkowe dane. To daje wolność.


10
+1 fajny przykład, ale nie należy tego brać dosłownie - w rzeczywistości 14-bitowy raw jest liniowy, podczas gdy 8-bitowy sygnał wyjściowy nie jest (z powodu gamma). wciąż dobry sposób na wizualizację, co przetwarzanie obrazu może zrobić z histogramem!
szulat

7
Tak, bardzo dosłownie. Gamma jest tak naprawdę głównym problemem, który wymaga 12 lub 14 bitów. Gamma jest zasadniczo największą taką zmianą tonalną, a na początku była słabo i nieodpowiednio w 8 bitach. Tak więc urządzenia do tworzenia obrazu (skanery, a następnie aparaty fotograficzne, które muszą uzyskać współczynnik gamma) musiały zostać ulepszone do 10 bitów, następnie 12, a teraz 14 bitów ... wszystkich bitów, na które stać nas na sprzęt, przynajmniej do niedawna. To prawda, że ​​nasze oko nigdy nie widzi danych gamma (z wyjątkiem wykresu histogramu). Ciąg dalszy ..
WayneF

3
@WayneF jest to powszechne nieporozumienie. gamma jest równie korzystna teraz w erze cyfrowej, jak w analogicznych czasach CRT. wyświetlacz musi prezentować te same poziomy, co oryginał, prawda! ale nasza percepcja jest nieliniowa. dlatego możesz zakodować jasność jako 8-bit za pomocą gamma i uzyskać wynik podobny do kodowania liniowego za pomocą 11-12 bitów. więcej bitów oznacza więcej pamięci, większą przepustowość, więcej energii - marnowane bez widocznych efektów. właśnie dlatego gamma jest tutaj. zobacz także przykładowe gradienty tutaj: cambridgeincolour.com/tutorials/gamma-correction.htm
szulat

2
Poprawny. Gamma nadal ma swoje miejsce w obrazowaniu cyfrowym i wideo, ponieważ dobrze wykorzystuje wartości kodu. Na dolnym końcu zakresu jasności 8-bitowa z gamma odpowiada 10-bitowej liniowości (ponieważ nachylenie gamma jest bliskie 4). W przepływach pracy filmu kodowanie logów jest częstsze niż kodowanie gamma, ale z tego samego powodu: oszczędność wartości kodu.
Dithermaster

3
Wersja skrócona: Edycje zdjęcia cyfrowego są stosowane matematycznie, a głębia bitowa wyświetlacza jest niezależna od głębi bitowej matematyki (chyba że używasz oprogramowania do edycji obrazów śmieciowych). Edycje są obliczane przy użyciu pełnej głębi bitowej, dzięki czemu można skorzystać z dodatkowej precyzji.
aroth

41

Wyższe głębokości bitów dają więcej opcji edycji bez utraty danych.

Nie popełniaj błędu, łącząc reprezentację obrazu z jego renderowaniem . Edycja daje najlepszą jakość wyników, gdy operujesz na reprezentacji, gdzie podstawowe dane mają najwyższą rozdzielczość. Zdarza się tak, że monitor wyświetla obraz w niższej rozdzielczości, ale nie jest to związane z jakością reprezentacji.

Jeśli pamiętasz ze szkolnej matematyki, zawsze obowiązywała zasada: nigdy nie rób pośrednich obliczeń podczas obliczania wyników; zawsze wykonuj matematykę, a następnie zaokrąglaj na końcu, kiedy przedstawisz wyniki. Dokładna samo odnosi się tutaj. Twój monitor to koniec, w którym „zaokrąglanie” ma miejsce podczas prezentacji go tobie. Twoja drukarka może „zaokrąglać” inaczej. Ale na wszystkich etapach pośrednich używasz nieprzetworzonych danych, aby uzyskać najdokładniejsze wyniki, i przechowujesz oryginalną reprezentację w wysokiej rozdzielczości na dysku, aby zachować te informacje i kontynuować dokładną edycję później.

Zastanów się: Powiedzmy, że masz obraz źródłowy w rozdzielczości 5760 x 3840. Zachowujesz największą elastyczność edycji i renderowania, edytując obraz w tym rozmiarze i pozostawiając go w tym rozmiarze. Jeśli zdarzyło Ci się oglądać go na monitorze 1440 x 900, po prostu pomniejszysz go w swoim edytorze, prawdopodobnie nie zmieniłbyś rozmiaru i nie próbował ponownie przeskalować danych, aby je dopasować. To samo dotyczy rozdzielczości kolorów.

Audio jest podobne. Być może karta dźwiękowa komputera ma tylko 12-bitowe możliwości wyjściowe. Ale jeśli rejestrować, przechowywać i pracować na 16-bitową lub 24-bitowego dźwięku, można zrobić sygnał małej objętości 16x lub 4096x głośniej (odpowiednio) i nadal osiągnąć minimalną utratą jakości produkcji na tym komputerze. Konwertuj w dół dopiero na końcu, gdy masz zamiar przedstawić końcowy wynik. Ekwiwalentem wizualnym jest rozjaśnienie wyjątkowo ciemnego obrazu z minimalnym pasemkiem.

Niezależnie od możliwości monitora, jeśli wykonujesz operację edycji, np. Pomnożysz jasność przez 2, chcesz to zrobić na oryginalnej reprezentacji obrazu w wysokiej rozdzielczości.


Oto symulowany przykład. Powiedzmy, że zrobiłeś naprawdę ciemne zdjęcie. Ten ciemny obraz znajduje się w górnym rzędzie poniżej, z symulowanymi 4, 8 i 14-bitowymi formatami pamięci wewnętrznej na kanał. Dolny rząd to wyniki rozjaśnienia każdego obrazu. Jasność była multiplikatywna, współczynnik skali 12x:

wprowadź opis zdjęcia tutaj ( Źródło , sfotografowane przez Andreę Canestrari)

Zwróć uwagę na trwałą utratę informacji. Wersja 4-bitowa jest tylko przykładowym przykładem ekstremalności. W wersji 8-bitowej widać pasy, szczególnie na niebie (kliknij obraz, aby zobaczyć powiększony widok). Najważniejszą rzeczą do odnotowania tutaj jest to, że 14-bitowa wersja skalowana z najwyższą jakością, niezależnie od tego, że jej ostateczną formą wyjściową był 8-bitowy format PNG, który ją zapisałem i fakt, że prawdopodobnie oglądasz to na 8-bitowy wyświetlacz .


1
Lub nawet 6-bitowy wyświetlacz. Nie wszystkie monitory LCD wyświetlają pełną 8-bitową głębię na kanał.
Random832

@ Random832 czy istnieje wiarygodny test sprawdzający, do czego zdolny jest Twój wyświetlacz LCD? Mam wygenerowany komputerowo obraz gradientu, który pokazuje pasy, ale nigdy nie byłem pewien, czy było to spowodowane tym, że moje oczy widziały różnice 1-poziomowe, czy też mój monitor go zniekształcał.
Mark Ransom

@ Mark Sprawdź ten miły artykuł na ten temat: avsforum.com/forum/… - może być trudny, istnieje wiele miejsc dla wąskich gardeł w łańcuchu sygnału od wyjścia wideo do światła wychodzącego z ekranu , wiele dezinformacji w specyfikacjach (np. reklamowane głębokości są BS z powodu 6-bitowego dekodera na niektórych losowych płytkach drukowanych) i edid deskryptory itp. Jest to złożony system i znajomość faktycznej głębokości nie jest częstym przypadkiem użycia, więc , powodzenia! Ymmv
Jason C

1
@ MarkRansom wyjaśniło mi to, że co czwarty poziom widziałem pasy na jasno określonych granicach. Niektóre wyświetlacze wykonują dithering, który może być nieco trudniejszy do zidentyfikowania
Random832

^ Zauważ też, że niektóre wyświetlacze wykonują dithering czasowy, a nie przestrzenny, co prawdopodobnie jest prawie niemożliwe do zauważenia, gdy jest wykonane poprawnie, ale możesz być w stanie zauważyć go w ciemnych obszarach, jeśli masz bystre oczy.
Jason C

4

14bit Raw nie koreluje z głębią bitową monitora. Raw to format, który jest minimalnie przetwarzany. Zobacz Raw Image Format .

Format Raw pozwala oprogramowaniu do obróbki końcowej, takim jak Lightroom i Photoshop, na precyzyjne dostosowanie obrazów, które nie byłoby możliwe w przypadku plików JPEG.

Jeśli chodzi o monitor, monitory szerokiej gamy są zwykle 10-bitowe i mają wewnętrzną LUT, która przechowuje informacje o kalibracji z kalibratorów takich jak X-Rite lub Spyder. Twoja karta graficzna musi także obsługiwać 10 bitów.

W przypadku układów Nvidia karty klasy stacji roboczych obsługują 10 bitów. Większość, jeśli nie wszystkie karty klasy Gaming, nie są z mojego doświadczenia. Podobnie jest z zestawami układów AMD.

Jeśli nie zamierzasz przetwarzać zdjęć później, możesz łatwo przełączyć się na JPEG.


warto zauważyć, że w prawie wszystkich przypadkach ludzkie oko i tak nie zobaczy więcej niż 8 bitów, z wyjątkiem rzadkich gładkich gradientów (głównie syntetycznych, w przeciwieństwie do naturalnych głośnych zdjęć, w których posteryzacja jest ukryta w hałasie)
szulat

8 bitów to tak naprawdę tylko 256 odcieni i nie wystarcza do wyświetlenia płynnych gradientów bez roztrząsania.
Gmck,

2
to prawda, ale takich gradientów prawie nigdy nie widać na zdjęciach z życia z powodu szumu
szulat

1
@Gmck: Istnieje ogromna różnica między jasnością 0,39% a jasnością 0,78%. 256-poziomowa krzywa logarytmiczna wystarczyłaby do uzyskania płynnych gradientów, ale wiele efektów filtrowania zasadniczo wymaga liniowego odwzorowania wartości na jasność (więc zastąpienie dwóch wartości pikseli ich średnią pozostawi niezmienioną ogólną jasność).
supercat

1

Być może powinieneś najpierw przeczytać to pytanie.

Jak różni się zakres dynamiki ludzkiego oka od zakresu aparatów cyfrowych?

Zasadniczo zakres dynamiczny papieru jest mniejszy niż 8 bitów, a zakres dynamiczny człowieka nie jest podobny.

Zaletą wysokiego zakresu dynamicznego w obrazach RAW jest to, że można je przetworzyć w celu przetworzenia interesujących cię bitów w zakresie, który może reprezentować urządzenie wyświetlające - co z kolei odnosi się do tego, co widzi ludzkie oko.

Klasycznym przykładem jest wnętrze pokoju ze światłem słonecznym na zewnątrz. Gdy ludzkie oko przełącza się z patrzenia na wnętrze na zewnątrz, tęczówka kurczy się, aby zmniejszyć ilość wpadającego światła, pozwalając zobaczyć szczegóły zewnętrzne, a także szczegóły wewnętrzne.

Aparat tego nie robi, więc normalnie musiałbyś eksponować wnętrze pokoju (i uzyskać najciekawsze momenty) lub na zewnątrz (uzyskać niedoświetlone wnętrze) - lub zrobić dwa zdjęcia i zrobić kompozyt HDR.

Wyższy zakres dynamiki Raw pozwala wykonać pojedyncze zdjęcie i selektywnie „popchnąć” lub „pociągnąć” określone obszary, aby odsłonić szczegóły, które znajdują się w obszarach prześwietlonych / niedoświetlonych.

Zdjęcia tutaj pokazują tego rodzaju scenariusz. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s


3
...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see. Dokładniej mówiąc, że ściskasz wybrane bity w zakresie, który może wyświetlać monitor . Ludzkie oko ma jeszcze większy zakres dynamiki niż nawet 14-bitowy obraz RAW. Nie chodzi o to, co widzi oko, chodzi o uchwycenie całego zakresu dynamiki, aby można go było później skompresować do zakresu dynamiki wyświetlania standardowego urządzenia wideo.
J ...

2
Nie, zakres dynamiki wyświetlania jest taki, jaki jest, ponieważ ulepszenie go jest technologicznie trudne i kosztowne. 14-bitowy wyświetlacz byłby niesamowity. Większy zakres dynamiczny oznacza większą przestrzeń kolorów - bardziej żywe, kolorowe i dokładne obrazy. Na przykład moim głównym wyświetlaczem jest wewnętrznie 12-bitowy (choć za pośrednictwem odnośnika) panel i może on wytwarzać 99% gamy kolorów AdobeRGB. Różnica między tym a zwykłym 8-bitowym (z zwykle około 6-bitowym efektywnym) panelem sRGB jest niewiarygodna. Większy zakres dynamiczny jest zawsze lepszy.
J ...

1
zakres dynamiczny nie ma związku z przestrzenią kolorów, a zasięg sRGB, kalibracja i „bity” są tutaj precyzyjne, a nie do wyświetlania bardziej kolorowych zdjęć
szulat

1
@J ... en.wikipedia.org/wiki/Adaptation_(eye) „w danym momencie oko może wyczuć jedynie współczynnik kontrastu wynoszący tysiąc”. = 10 bitów.
Roddy

1
@Roddy Tak, ale równanie to coś więcej niż absolutnie jasne i ciemne. Jak wyżej, chodzi również o rozdzielczość kolorów.
J ...

-3

„Wikisperci” zapominają, że niezależnie od głębokości bitów, którą przetwarzasz, wynik TYLKO widzisz w 8 bitach. Wklej 3-bitowy plik (8 poziomów) do 8-bitowego systemu, a na wyświetlaczu pojawi się 8 poziomów (256/7 = 0 do 7) 0 do 255 w krokach 36. 4-bitowy pokaże 16 (0 do 15). Wstaw 10, 12 lub 14 bitowy plik, zobaczysz 256 poziomów. Twoja karta wideo przekonwertuje poziomy 1024, 4096 lub 16 384 do 256. Dlatego niezależnie od załadowanego pliku RAW, jak tylko zostanie zaoferowany procesorowi wideo, osiągnie poziom 8 bitów (256). Pracowałem w fizyce medycznej, większość działów obrazowania ma teraz 12-bitowe obrazowanie do badań piersi i tym podobne. Jednak ludzkie oko nie może wykryć lepiej niż 900 poziomów ish, dlatego oprogramowanie wykrywa niewielkie zmiany w gęstości tkanki, więc jeśli spotkasz kogoś, kto ma system 10, 14 lub 14 bitów, będą poważnie zadłużeni i mega rozczarowani. Nawiasem mówiąc, staramy się również wykryć zmiany koloru, nasza wizja spada poniżej 16 milionów kolorów, chyba że drobne zmiany w podobnym odcieniu, w których zauważamy pasy. Nasze aparaty mogą mieć około 4 trylionów kolorów, ale podobnie jak wiele innych rzeczy, teoretycznie możliwe i faktycznie możliwe mogą być dwa bardzo różne zwierzęta.


1
To, co widzisz na monitorze 8-bitowym, nie jest tym, co masz w pliku 14-bitowym, więc co? Jak stwierdzono w poprzedniej odpowiedzi, więcej informacji wydaje się zawsze być lepszych ...
Olivier

Zrobię to prosto. Rób zdjęcia w formacie raw, produkuj pliki jpg ze swojego pliku raw. Aby zobaczyć przewagę, porównaj swój plik jpg z tymi produkowanymi przez aparat. To różnica między obiektywem profesjonalnym a śmieciowym.
Bob_S

Czy możesz wyjaśnić swój argument dotyczący soczewki? Dla mnie nie ma to nic wspólnego z tą dyskusją: posiadanie 12 bitów zakresu dynamicznego i wybór tego, co chcesz zachować po obróbce, absolutnie nie jest związane z jakością obiektywu. I tak, możesz zobaczyć 12 bitów zakresu dynamicznego na 8-bitowym ekranie, po prostu graj z korektami EV!
Olivier

Nie, nie możesz. Twój 8-bitowy wyświetlacz wyświetla poziomy n / 256 lub 256 / n, w zależności od tego, czy oferujesz plik mniejszy czy większy niż 8 bitów. Możemy dostosować punkt, w którym te bity są wybierane przez korekty w PS, ale nie mamy KONTROLI, nad którymi bity są wyświetlane, tj. Przerwa między bitami będzie taka sama, więc brakuje danych !. Gdybyśmy to zrobili, my (na przykład NHS) nie zawracalibyśmy sobie głowy wydawaniem 46 000 funtów na 12-bitowy sprzęt do obrazowania, który dawał nie więcej niż 8 bitów.
Bob_S

Zastanawiam się, czego nie rozumiesz na temat wykorzystania wyższego niż widoczny zakresu dynamicznego do stworzenia obrazu. Jeśli masz plik z 12-bitowym zakresem dynamicznym, możesz wyświetlić dowolny dowolny zakres 8 bitów, to takie proste. Gdybyś był fotografem, zrozumiałbyś, jak ważne jest to: wyróżnianie szczegółów w cieniu i w cieniu to marzenie każdego. Nie będę dalej omawiał tego tematu, proszę przeczytać poprzednie odpowiedzi.
Olivier
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.