Dlaczego przestrzeń kolorów xvYCC nie jest wykorzystywana do fotografii?


23

Przez ostatnie piętnaście lat sRGB było podstawowym standardem dla monitorów komputerowych (i drukowania na poziomie konsumenckim). To się teraz zmienia, gdy powszechne stają się monitory z podświetleniem LED o szerszej gamie kolorów. Zwykle fotografowie używają ich z przestrzenią kolorów taką jak aRGB, która jest półstandardowa - mój aparat może na przykład zapisywać pliki JPEG w tej przestrzeni natywnie.

Ale jest nowy standard szeroko rozpowszechniony w branży AV, aby zastąpić sRGB. Jest to IEC 61966-2-4 - xvYCC (lub „xvColor”, do celów marketingowych). Ta przestrzeń kolorów ma gamę 1,8 × większą niż sRGB, obejmującą 90% zakresu kolorów ludzkiego widzenia (zamiast mało inspirujących 50% objętych naszym wspólnym mianownikiem). Czytaj więcej na stronie internetowej Sony na xvYCC .

Ważne jest jednak to, że nie jest to teoretyczne. Jest to część standardu HDMI 1.3 wraz ze specyfikacją głębi kolorów od 10 do 16 bitów na kolor (tak zwany „Deep Color”). W przeciwieństwie do aRGB, który jest w zasadzie profesjonalną niszą, istnieje szerokie wsparcie w sprzęcie na poziomie konsumenckim.

To jest tło. Pytanie jest: biorąc pod uwagę, że jest to powszechnie łowienie, i że wszyscy jesteśmy mogą mieć komputer i telewizor (!) Sprzęt zdolny do wspierania go w ciągu najbliższych kilku lat, dlaczego to jest sprzedawane jako w zasadzie tylko rzeczy wideo? Wygląda na to, że przemysł filmowy chętnie włączy się do pokładu.

Sony jest wielkim pomysłem i wprowadził na rynek kamery wideo obsługujące go cztery lata temu. Playstation 3 obsługuje to, na miłość boską! Dlaczego nie umieścić go również w Sony Alpha dSLR? I Sony nie jest sam - Canon ma również kamery obsługujące to.

Oczywiście, jeśli fotografujesz w formacie RAW, obsługa w aparacie nie jest ważna. To ludzie oprogramowania, którzy musieliby wejść na pokład - dlaczego nie ma na to siły? Jak rozumiem, xvYCC jest rozszerzeniem YCbCr, które jest już używane w plikach JPEG . Ale kiedy czytam literaturę, znajduję wiele wzmianek o zaktualizowanych standardach MPEG, ale nic o nieruchomych zdjęciach.

Dlaczego nie możemy mieć miłych rzeczy?

Odpowiedzi:


11

xvYCC to szczególny sprytny sposób kodowania danych kolorów: narusza reprezentację YCC poprzez użycie wcześniej zabronionych kombinacji wartości do reprezentowania kolorów poza gamą przestrzeni RGB używanej w schemacie YCC. Oznacza to, że niektóre krotki YCC dekodują do kolorów z ujemnymi wartościami RG lub B. Wcześniej były one po prostu nielegalne; w xvYCC są one dozwolone, a wyświetlacze o większych gamach niż system RGB mogą renderować je najlepiej, jak potrafią. Tak naprawdę jest to sprytny, w większości kompatybilny hack, aby uzyskać dodatkową gamę bez dużej zmiany formatu.

Czy warto używać go w fotografii? Naprawdę tak nie uważam. Naprawdę nie ma potrzeby być kompatybilnym z YCC, więc dlaczego nie skorzystać z szerokiej gamy przestrzeni, takiej jak ProPhoto RGB? Albo jeszcze lepiej, ponieważ użycie dodatkowej głębi bitowej nie jest drogie dla zdjęć, dlaczego nie wybrać czegoś takiego jak CIELAB, który może pokryć całą postrzegalną gamę ludzi? Masz wystarczająco dużo bitów, aby zdolność do kodowania wszystkich tych wyimaginowanych kolorów nie kosztowała żadnej znaczącej rozdzielczości kolorów.

Oczywiście kwestia obsługi aparatu jest trochę nieistotna - jeśli naprawdę zależy Ci na kolorze, powinieneś pobrać surowe wartości detektora z kamery i zacząć od nich. Nawet jeśli to zrobisz, nadal utkniesz w dostrzegalnej gamie aparatu. A dokładność odwzorowania kolorów będzie również zależeć od tego, jak dobrze filtry w aparacie aproksymują reakcję spektralną ludzkich stożków - popełnisz błąd, a kolory, które wyglądają identycznie jak oko, będą różnić się od aparatu. Żadne kodowanie tego nie naprawi. W rzeczywistości stało się tak z jednym tanim aparatem cyfrowym, który miałem - w tym przypadku jego czułość na podczerwień sprawiła, że ​​żar wyglądał na fioletowy. Nawet jeśli przesłonisz podczerwień, rzeczy z kolczastymi widmami, takie jak tęcze i świetlówki lub minerały (i może niektóre barwniki), pokażą ten efekt, gdy widma ciągłe wyglądają dobrze.


20

Na początek odpowiedź brzmi: „Służy do robienia zdjęć!” Wytłumaczę trochę więcej za chwilę, a jego użycie jest w tej chwili dość niszowe.

Korzenie xvYCC

O ile mogę powiedzieć, kodowanie xvYCC jest nowoczesnym ulepszeniem kodowania YCC, lub w jego długiej formie, Y'CbCr (lub YCbCr, który jest nieco inny.) Kodowanie YCC jest częścią rodziny luminancji / chrominancji przestrzenie kolorów, które są w dużej mierze zakorzenione w przestrzeni kolorów L a b * (w skrócie „Lab”) sformułowanej przez CIE w latach 30. XX wieku. Lab przestrzeń barw jest luminancji / chrominancji przestrzeni kolorów, gdzie luminancja koloru jest kodowany w L *, wartość, a dwie osie chrominancji koloru są kodowane w a * i b * wartości. Wartość a * koduje połowę chrominancji wzdłuż osi zielony / magenta , podczas gdy wartość b * koduje drugą połowę chrominancji wzdłuż niebieskiego / żółtegooś. Te dwie kolorowe osie zostały wybrane do naśladowania i reprezentują czterokolorową pierwotną wrażliwość ludzkiego oka, które również leżą wzdłuż pary osi czerwony / zielony i niebiesko-żółty (chociaż prawdziwy wzrok ludzki wymaga podwójnej krzywej czerwonej, z mniejszy pik występujący pośrodku niebieskiej krzywej, co w rzeczywistości oznacza, że ​​ludzkie oko jest bezpośrednio wrażliwe na magenta, a nie czerwony ... stąd oś zielony / magenta w Lab.)

Kodowanie YUV

Y'CbCr jest prawdopodobnie najbardziej rozpoznawalny w postaci kodowania wideo YUV. Kodowanie YUV zostało specjalnie zaprojektowane w celu zmniejszenia ilości miejsca potrzebnego do zakodowania koloru do transmisji wideo, w czasach, gdy przepustowość była dość rzadkim towarem. Przesyłanie informacji o kolorze jako tryplety RGB jest marnotrawstwem, ponieważ tryplety R, G, B kodują kolor z dużą ilością redundancji: wszystkie trzy składniki obejmują informacje o luminancji, a także informacje o chrominancji, a luminancja jest ważona dla wszystkich trzech składników. YUV to nisko-przepustowa forma kodowania kolorów luminancji / chrominancji Y'CbCr, która nie ma marnotrawnej nadmiarowości kodowania RGB. YUV może zużywać w dowolnym miejscu od 2/3 do 1/4 szerokości pasma pełnego sygnału RGB w zależności od formatu podpróbkowania (a dodatkowo przechowywał pełny szczegół obrazu w odrębnym kanale luminancji Y, który wygodnie obsługiwał zarówno czarno-białe, jak i białe jako sygnały telewizji kolorowej z jednym formatem kodowania). Należy wyraźnie zauważyć, że YCC nie jest tak naprawdę przestrzenią kolorów, jest to raczej sposób kodowania informacji o kolorze RGB. Myślę, że dokładniejszym terminem byłobymodel kolorów niż przestrzeń kolorów, a termin model kolorów można zastosować zarówno do RGB, jak i YUV.

Z referencji połączonej w pierwotnym pytaniu wynika, że ​​xvYCC jest ulepszoną formą kodowania Y'CbCr, która przechowuje zakodowane informacje o kolorze luminancji / chrominancji z większą liczbą bitów niż YUV. Zamiast kodować luminancję i chrominancję w przeplecionych zestawach 2-4 bitów, xvYCC koduje kolor we współczesnych 10-bitowych wartościach.

Użyj w fotografii

Co ciekawe, istnieje jedna marka lustrzanek cyfrowych, która wykorzystuje coś bardzo podobnego. W ostatnich latach Canon dodał do swoich aparatów nowy format RAW, zwany sRAW. Podczas gdy normalny obraz RAW zawiera bezpośredni zrzut danych z pełnego czujnika, sRAW nie jest w rzeczywistości prawdziwym formatem obrazu RAW. Format sRAW nie zawiera danych bayera, zawiera przetworzoną zawartość Y'CbCr interpolowaną z podstawowych danych pikseli bayer RGBG. Podobnie jak w telewizji, sRAW ma na celu wykorzystanie bardziej oryginalnych informacji o sygnale do kodowania danych luminancji i chrominancji w wysokiej precyzji (14-bpc), ale przy zachowaniu niewielkiego formatu obrazu. Obraz SRAW może mieć od 40 do 60% rozmiar obrazu RAW,

Zaletą sRAW jest to, że utrzymujesz wysoką dokładność postrzegania przez człowieka w kompaktowym formacie pliku i lepiej wykorzystujesz piksele RGBG na czujniku Bayera (zamiast nakładających się próbek, które wytwarzają nieprzyjemne mory kolorów, sRAW wykonuje nie nakładające się próbki chrominancji oraz pokrywające się / rozproszone próbkowanie luminancji.) Wadą jest to, że nie jest to prawdziwy format RAW, a informacja o kolorze jest interpolowana i próbkowana w dół z czujnika pełnego bayera. Jeśli nie potrzebujesz pełnej rozdzielczości RAW aparatu (tj. Zamierzasz drukować tylko w rozdzielczości 8x10 lub 11x16), to sRAW może być prawdziwą korzyścią, ponieważ może zaoszczędzić dużo miejsca (nawet 60% oszczędności w porównaniu z RAW ), zapisuje się szybciej niż nieprzetworzony, zapewniając większą liczbę klatek na sekundę, i lepiej wykorzystuje informacje o kolorze przechwycone przez czujnik niż RAW w pełnej rozdzielczości.


Bardzo ciekawe i pouczające - dzięki! Ale nadal jestem zaskoczony, że jak dotąd wykorzystanie tej niszy jest jedyną rzeczą.
mattdm

1
Myślę, że technicznie rzecz biorąc, można uznać JPEG za inny format obrazu, który koduje dane w sposób zgodny z YCC. Część oszczędności miejsca w JPEG wynika z faktu, że koduje on dane RGB w formacie luminancji / chrominancji, na podstawie których dane są dalej kompresowane poprzez kompresję bloków stratnych. Podczas gdy konkretne kodowanie xvYCC nie jest powszechne w fotografii, o ile się nad tym zastanowić, kodowanie luminancji / chrominancji jest w rzeczywistości najbardziej rozpowszechnionym formatem.
jrista

7

Masz rzeczy prawie całkowicie do tyłu. Nie jest to przypadek, w którym fotografia mogłaby / powinna „dogonić” wideo - wręcz przeciwnie, jest to kwestia wideo, które w końcu nadrobiło (z grubsza) możliwości, które TIFF (na przykład) zapewnia kilka dekad temu (lub tak).

Chociaż 20 lat temu na pewno nie widziałeś zbyt wielu 16-bitowych plików TIFF / kanałowych, możliwości już tam były, a 16 bitów / kanał (w TIFF i różnych innych formatach) jest teraz dość powszechny. Jednocześnie czuję się zobowiązany do wskazania, że ​​większość ludzi uważa, że ​​8 bitów / kanał jest całkowicie wystarczających. Tylko dla jednego oczywistego przykładu, JPEG2000 obsługuje 16 bitów / kanał i lepszą kompresję niż oryginalny JPEG - ale nigdzie nie jest nawet bliski użycia oryginalnej specyfikacji JPEG.

Mniej więcej w tym samym czasie (właściwie trochę wcześniej) xvYCC pracował nad (z grubsza) nadrobieniem możliwości TIFF, opracowywany był format pliku openEXR. Obsługuje do 32 bitów / kanał. Chociaż nie jest jeszcze tak szeroko stosowany, spodziewam się, że będzie trochę podobny do TIFF i ostatecznie będzie szerszy.

Jeśli chodzi o przestrzeń kolorów, prawdą jest, że większa liczba bitów / piksel, jeśli xvYCC obsługuje większą gamę niż sRGB. Znowu jednak ProPhotoRGB (na przykład) zapewnia znacznie szerszą gamę - i (szczerze mówiąc) jest otwarte na pewne pytanie, czy istnieje potrzeba większej przestrzeni kolorów niż zapewnia ProPhotoRGB (około 13% kolorów, które możesz reprezentują w ProPhotoRGB są w zasadzie wyimaginowane - wykraczają poza to, co większość ludzi może dostrzec).

Zaletą xvYCC jest zmniejszenie ilości danych potrzebnych / wykorzystywanych do reprezentacji danego poziomu jakości. W szczególności w przypadku filmów HD minimalizacja przepustowości jest niezwykle ważna. Jednak w przypadku cyfrowych aparatów fotograficznych przepustowość jest znacznie mniejszą kwestią - choć na pewno byłoby miło, gdyby (na przykład) mógłbym zmieścić dwa razy więcej zdjęć na konkretnej wielkości karty CF, nie jest to szczególnie poważny problem. Stosunkowo niewiele osób korzysta z największej dostępnej pojemności kart CF, podobnie jak koszt kart CF nie stanowi istotnej części budżetu typowego fotografa.

Podsumowując: pod względem możliwości technicznych xvYCC zapewnia niewiele, co nie jest jeszcze dostępne.

Edycja: Prawdopodobnie powinienem dodać jeszcze jeden punkt. LCD zaczęły zastępować kineskopy dla większości monitorów w momencie, gdy aparaty cyfrowe zaczęły być szeroko stosowane - ale monitory LCD klasy konsumenckiej dopiero teraz zaczynają przekraczać (lub nawet zbliżać się) rozdzielczość kolorów 8 bitów / kanał. Trudno było się martwić o 10 lub 12 bitów / kanał, gdy typowy monitor mógł wyświetlać tylko około 6.

Jest też drobny szczegół, którego wielu ludzi po prostu nie obchodzi. W ich przypadku jakość fotografii mieści się w kryterium zaliczenia / niezaliczenia. Większość ludzi naprawdę prosi o to, aby zdjęcie było w miarę rozpoznawalne. Podejrzewam, że ludzie powoli zaczynają oczekiwać lepszych, ale po latach Walgreens (lub kogokolwiek) zmieniania rudowłosej córki w blondynkę (itp.) Trochę czasu zajmuje przyzwyczajenie się do idei, że kolor może być w ogóle dokładny.

Edycja: W rzeczywistości jest jeszcze jeden krok poza JPEG 2000: JPEG XR . Obsługuje do 32 bitów / kanał (zmiennoprzecinkowy) HDR. Określa również format pliku, który może zawierać wszystkie zwykłe dane typu EXIF ​​/ IPTC, osadzony profil kolorów itp. W związku z tym pytaniem, który zawiera wartość określającą, że plik powinien używać przestrzeni kolorów xvYCC (wartość 11w TRANSFER_CHARACTERISTICSelemencie składni, tabela A.9, na wypadek, gdyby kogokolwiek to obchodziło. Wydaje się, że nie jest to powszechnie używane (przynajmniej jeszcze), ale bezpośrednio obsługuje przestrzeń kolorów xvYCC dla zdjęć.


Dzięki; to zdecydowanie jeden ze sposobów patrzenia na to. Wiem, że istnieją te formaty plików i szersze przestrzenie kolorów. Wydaje mi się, że naprawdę interesuje mnie, dlaczego w świecie A / V występuje nacisk na większą głębię kolorów, ale nie na fotografiach konsumenckich.
mattdm

1
@mattdm: Myślę, że powodem tego jest nacisk, ponieważ nie było go wcześniej. Szeroka gama kolorów / wysoka głębia kolorów jest dostępna do robienia zdjęć od co najmniej dekady, i o ile wiem aparaty cyfrowe obsługują Adobe RGB (który ma szerszą gamę niż sRGB, chociaż nie obsługuje 98% gamut Lab) przez pewną liczbę lat. SRAW firmy Canon jest dostępny w ich podstawowych i lustrzankach średniego poziomu od co najmniej kilku lat. Zgodziłbym się z Jerrym ... wideo to domena, która „nadrabia zaległości”.
jrista

4

Aby odpowiedzieć trochę na moje pytanie po kilku badaniach:

Chociaż nie jest to xvYCC, z powodów, które naprawdę wciąż wymykają mi (od kodowania JPEG używa podobnego starszego systemu), tam nie wydaje się być pewne zachęcające porusza się na „my może mieć ładne rzeczy!” z przodu, ponieważ wydaje się, że przynajmniej Microsoft dba o szerszą gamę kolorów i lepszą głębię bitów w fotografii - przynajmniej trochę.

Powoli, ale zdecydowanie dążyli do nowego standardu formatu plików o nazwie JPEG XR (wcześniej Windows Media Photo, a potem HD Photo). Jest to interesujący krok naprzód od „tradycyjnego” JPEG, oferujący lepszą kompresję przy tej samej jakości obrazu i (do tego stopnia dyskusji) większą obsługę głębi bitów.

JPEG 2000 też to robi, ale był to głównie flop, prawdopodobnie z powodu obaw związanych z patentami obejmującymi kompresję falkową, której używa, lub może coś innego. Ważna kwestia: Microsoft promuje teraz JPEG XR, oferując go w wielu swoich programach, w tym w Internet Explorerze 9 . Począwszy od 2009 r., Jest to oficjalny prawdziwy międzynarodowy standard i jest objęty „Społeczną obietnicą” firmy Microsoft, aby nie egzekwować swoich patentów w sposób wrogi wobec wdrożeń. To całkiem nieźle jak na przyszłość.

A wraz z tym, oni popychanie pomysł bardziej bitach na kanał jako „ wysokiej koloru ”, (co jest dla mnie śmieszne, bo w moim umyśle, że wciąż stara 16-bit-ciałami wszystkie -channels tryb karty graficznej). W ramach tego mają oni prawdopodobnie absurdalnie dużą „pośrednią” przestrzeń kolorów zwaną scRGB - przeczytaj tutaj dość szczegółowe jej opis - który jest obsługiwany przez JPEG XR, jeśli chcesz. Może nie być szczególnie przydatny jako końcowa przestrzeń kolorów, ponieważ większość jej kolorów znajduje się w „wyobrażonym” obszarze poza ludzką percepcją . Ale tak czy inaczej, chodzi o to, Microsoft jest integracja standardów wyższej głębi kolorów w systemie operacyjnym Windows, a mimo to fotografia jestczęść tego. Z nieco starego wywiadu CNET : „Absolutnie oczekuję, że obsługa scRGB w aparatach będzie towarzyszyć JPEG XR”.

Ale to było w 2007 roku. Cztery i pół roku później nadal nie widzimy kamer obsługujących JPEG XR, nie mówiąc już o fantazyjnych przestrzeniach kolorów o dużej głębi kolorów. Ale może jestem niecierpliwy. Jak zauważają inne odpowiedzi tutaj, sprzęt wyświetlający, który obsługuje szeroką gamę, właśnie staje się dostępny, obsługa najpopularniejszego systemu operacyjnego na świecie jest całkiem nowa, a pierwsza przeglądarka internetowa, która ją obsługuje, została wydana w tym miesiącu . Gdy to się pojawi i, miejmy nadzieję, zostanie w końcu wychwycone przez Chrome i Firefox , programy do przetwarzania obrazu (w tym konwertery RAW) uzyskają wsparcie, a następnie nastąpi bezpośrednie wyjście z kamer.

W przeciwnym razie wszystko upadnie. Czas pokaże. :)


2
Dobrą cechą JPEG XR jest to, że jest tani obliczeniowo, więc byłoby możliwe na przykład zaimplementowanie go do kodowania w aparacie. JPEG 2000 jest kosztowny. Jest to z pewnością czynnik, chociaż być może wraz z nadchodzącym marszem mocy obliczeniowej nie jest tak duży.
PeterT

3

Dodam kilka notatek wokół Jona ...

  1. Przestrzeń kolorów ma znaczenie w kontekście aparatu tylko w przypadku plików JPEG, ponieważ w przypadku obrazów RAW przestrzeń kolorów stanowi wybór w fazie „rozwoju”. Niektóre aparaty (w niektórych półprofesjonalnych Pentaxach) pozwalają na wybór sRGB lub aRGB dla rozwoju JPEG, więc być może mogą dodać trzeci (lub czwarty dla ProPhoto). Z drugiej strony, dla większości profesjonalistów, przeciągną obraz w pożądanej przestrzeni kolorów dla zamierzonego nośnika wyjściowego.

  2. Przeglądarka (i / lub urządzenie) musi także znać przestrzeń kolorów i być w stanie sobie z nią poradzić. Podczas gdy monitory szerokiej gamy stają się coraz bardziej powszechne, prawdopodobnie nadal stanowią ogromną mniejszość i nadrobienie zaległości zajmie trochę czasu. Cholera, znam sporo osób, które wciąż mają stare monitory CRT podłączone do całkiem przyzwoitych komputerów.


Chciałbym jeszcze raz podkreślić, że xvYCC nie jest „przestrzenią kolorów”, to naprawdę, w najlepszym razie, format kodowania informacji o kolorach RGB. Obsługuje szerszą gamę nie dlatego, że jest przestrzenią kolorów, ale dlatego, że przechowuje informacje o kolorze przy użyciu większej liczby bitów informacji i przechowuje je w formacie, który jest bliższy sposobowi, w jaki ludzie postrzegają luminancję i kolory.
jrista

@jrista, norma IEC nazywa ją „przestrzenią kolorów YCC o rozszerzonej gamie dla aplikacji wideo - xvYCC”, co wyraźnie sugeruje, że jest to przestrzeń kolorów. Po przeczytaniu na YCC widzę, skąd pochodzisz, i nie chcę płacić stu dolarów za przeczytanie standardu, nie jestem pewien, ale moje obecne założenie jest takie, że określa on zarówno rozszerzony sposób określania informacje o kolorze w YCC i rzeczywistej szerszej przestrzeni kolorów RGB.
mattdm

1
Będę musiał przeczytać głębiej w specyfikacji. Nie jestem jeszcze do końca pewien, co oznacza xv, więc być może odnosi się to do jakiejś szerokiej gamy przestrzeni barw. Jednak YCC, nawet jeśli używają więcej bitów, z pewnością nie jest „gamutem”, to po prostu encoding. To tak, jakby powiedzieć, że RGB jest przestrzenią kolorów ... nie jest, to po prostu sposób kodowania danych kolorów. A color spaceokreśla wartości luminancji i chrominancji każdego koloru za pomocą zestawu mapowań kolorów podstawowych, klucza gamma, punktu bieli i czerni oraz niektórych krzywych.
jrista

1
Zgaduję, że „xv” jest „rozszerzoną wartością”, ale może to po prostu oznaczać „soudns cool”.
mattdm

1

Przestrzeń kolorów xvYCC prawdopodobnie nie jest wykorzystywana do robienia zdjęć, ponieważ opracowano nowe standardy, które są ulepszeniem starszych standardów, i żaden producent nie chce inwestować w standard, który może stracić na wartości, zanim zostanie zastąpiony przez „następną największą rzecz” „. Nauczyli się od VHS vs. Beta.

Format wysokiej wydajności obrazu (HEIF), MPEG-H część 12, to format pliku określający format strukturalny, z którego można uzyskać formaty obrazu specyficzne dla kodeka.

HEIF zawiera również specyfikację enkapsulacji obrazów i sekwencji obrazów zgodnych z kodowaniem wideo o wysokiej wydajności (HEVC, ISO / IEC 23008-2 | ITU-T Rec. H.265 lub MPEG-H część 2).

Jest wspomniany w głównym przemówieniu Apple WWDC 2017: https://youtu.be/oaqHdULqet0?t=58m49s .

IPhone 7 firmy Apple i nowszy bierze to, co jest fotografowane i zapisuje je w formacie JPEG lub HEIF. Korzystanie z HEIF może zapewnić nieskazitelne rozwiązanie Camera to Storage to Display - kompletną infrastrukturę bez strat lub konwersji z wejścia na wyjście (przy użyciu HEIF bez kompresji).

Nie chodzi o to, że w pełni obsługują każdą funkcję (podobnie jak MPEG rzadko jest „w pełni obsługiwany”) lub że nie jest to łatwe dla nikogo innego, po prostu wydaje się, że są pierwszymi z kompletnym rozwiązaniem dla obrazów (dla wideo mieliśmy od lat podzbiór HEVC H.264, H.265, a ostatnio HikVision H.265 +).

Jeśli znasz inne aparaty obsługujące HEIF, skomentuj lub edytuj, dzięki.

Kamery, które rejestrują obrazy i filmy w szczególnie wysokim zakresie dynamicznym (czujnik ma ponad 16 bitów na kolor) często nie przetwarzają danych (tworzą skompresowany plik), ale zamiast tego wyprowadzają dane surowe bezpośrednio, na przykład: http: // www .jai.com / pl / products / at-200ge - ta kamera wysyła 24 do 30 bitów na piksel lub http://www.jai.com/en/products/at-140cl - że kamera wysyła 24 do 36 bitów na piksel .

Można uzyskać kamerę z przestrzenią kolorów CIE 1931 (i prawdopodobnie inne przestrzenie kolorów), jeśli poszukujesz bez końca lub chcesz zapłacić specjalnemu dostawcy aparatu fotograficznego za wykonanie dokładnie tego, czego chcesz, prawdopodobnie sam będziesz pisać oprogramowanie na przekonwertować z Przestrzeni kolorów na przestrzeń używaną przez inne Programy.

Oto link do kamery Condor3 CIE 1931 firmy Quest Innovations: http://www.quest-innovations.com/cameras/C3-CIE-285-USB .

Kamery z 3,4,5 lub 6 czujnikami mogą dzielić widmo na mniejsze części i dostarczać więcej bitów na kanał, dokładniej określając dokładny kolor i intensywność: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .


Pryzmat do kamery 3-kanałowej 3CCD lub 3MOS

Pryzmat do kamery 4-kanałowej 4CCD lub 4MOS

Pryzmat do kamery 5-kanałowej 5CCD lub 5MOS


Referencje:

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.