Kilka opisywanych operacji manipuluje danymi na obrazie, powodując utratę lub transformację informacji. W większości nie sądzę, że ma to znaczenie w tradycyjnej fotografii (tj. Odbitkach itp.), Ale na pewno ma to znaczenie, gdy każdy piksel jest uważany za miarę liczby fotonów.
Kiedy robię operacje, myślę o propagowaniu błędu. Błąd może występować na poziomie pojedynczego piksela, na poziomie przestrzennym i na poziomie kolorów.
Hałas to błąd czujnika pojedynczego piksela podczas procesu wykrywania, wprowadzany przez błędne fotony, efekty kwantowe (przekształcenie fotonu w elektron w celu zliczenia jest zdarzeniem probabilistycznym na poziomie kwantowym) oraz konwersja analogowo-cyfrowa. Jeśli kolejne operacje wykonają takie czynności, jak kontrast rozciągania (wyrównanie histogramu) lub podkreślenie ciemniejszych obszarów (wypełnienie światła), wówczas należy zmniejszyć szum przed ich wykonaniem.
Aby uzyskać całkowicie zredukowany przykład tego, co mam na myśli, zrób zdjęcie ciemnego pola (zdjęcie z założoną pokrywą obiektywu). Rezultatem jest hałas. Możesz kontrastować, poprawić lub cokolwiek zechcesz, ale nadal jest to hałas. Idealny algorytm redukcji szumów powinien usunąć to wszystko, więc nie można znaleźć kontrastu, który mógłby zostać wzmocniony w późniejszych krokach.
Błąd przestrzenny można wprowadzić na wiele sposobów. Podczas obracania obrazu wprowadzane są błędy przestrzenne. Jeśli pomyślisz o istnieniu „prawdziwego” obrazu (w sensie platońskim), aparat rejestruje jego cyfrową wersję. Nawet gdy używasz filmu - ziarna / kryształy filmu mają skończone rozmiary i nastąpi pewne próbkowanie „prawdziwego” obrazu. Obracając obraz cyfrowy, wprowadzasz efekty aliasingu. Bardzo ostre krawędzie zostaną lekko stępione (chyba że obrócisz o 90 stopni, w którym to przypadku próbkowanie siatki nadal się utrzymuje). Aby zobaczyć, co mam na myśli, zrób zdjęcie i obróć je o 1 stopień. Ostra krawędź zostanie teraz (nieznacznie) zamazana z powodu próbkowania niezbędnego do wykonywania małych obrotów.
Próbkowanie Bayera może być tylko przestrzennym błędem próbkowania, z którym musimy żyć. Jest to jeden z największych losowań (być może jedyny prawdziwy) dla czujnika Foveon. Każdy piksel mierzy kolor w tym miejscu, zamiast uzyskiwać inne kolory z sąsiednich pikseli. Mam DP2 i muszę powiedzieć, że kolory są dość oszałamiające w porównaniu do mojego d300. Użyteczność, nie tyle.
Artefakty kompresji są kolejnym przykładem błędu przestrzennego. Skompresuj obraz wiele razy (otwórz plik jpg, zapisz go w innym miejscu, zamknij, ponownie otwórz, spłucz, powtórz), a zobaczysz, co mam na myśli, szczególnie przy kompresji 75%.
Błędy przestrzeni kolorów są wprowadzane podczas przechodzenia z jednej przestrzeni kolorów do następnej. Jeśli weźmiesz png (bezstratne) i przeniesiesz go z jednej przestrzeni kolorów do drugiej, zapisz go. Następnie wróć do oryginalnej przestrzeni kolorów, zobaczysz subtelne różnice, w których kolory w jednej przestrzeni nie były odwzorowane na drugiej.
Kiedy przetwarzam zdjęcia, moje zamówienie jest zazwyczaj następujące:
- redukcja szumów
- wzmocnienie kontrastu, ekspozycje itp.
- rotacje
- przestrzeń kolorów
- końcowa kompresja do obrazu wyjściowego.
I zawsze oszczędzam surowe.