Jak rozmycie tła (bokeh) ma związek z rozmiarem czujnika?


20

To jest nieco teoretyczne pytanie.

Załóżmy, że najpierw robię zdjęcie obiektu za pomocą pełnoklatkowej matrycy DSLR z danym obiektywem (powiedzmy obiektyw stałoogniskowy 50 mm przy f / 3.5).

Załóżmy teraz, że wymieniam kamerę na DSLR z matrycą APS-C (o współczynniku kadrowania 1,6 ×). Trzymam ten sam obiektyw (ta sama długość ogniskowej, ta sama przysłona) i cofam się o kilka metrów, aby zachować pole widzenia (przynajmniej zachować to samo powiększenie obiektu). Teraz robię drugie zdjęcie.

Wyraźnie zwiększy się głębia ostrości między dwoma zdjęciami. Ale co z rozmyciem tła (na przykład drzewami w nieskończoności)? Czy będę miał tyle samo rozmycia tła, czy to się zmieniło?

Czytałem gdzieś, że rozmycie tła zależy od wielkości fizycznej apertury. W tym przypadku otwór fizyczny (fizyczna ogniskowa podzielona przez f / stop) pozostaje taki sam. Ale czy należy przyjmować tę liczbę w stosunku do rozmiaru czujnika? W takim przypadku przy mniejszej matrycy APS-C fizyczna apertura będzie względnie większa, co oznaczałoby więcej rozmycia tła. Byłoby to raczej sprzeczne z intuicją, ponieważ zwykle uważamy, że trudniej jest uzyskać rozmycie tła w aparacie APS-C.

Proszę podać uzasadnienie odpowiedzi. Sam bym odpowiedział na to pytanie za pomocą kalkulatora rozmycia tła, ale nie mogę go uruchomić na moim komputerze.


1
Myślę, że to zagadnienie jest naprawdę omówione w tym: photo.stackexchange.com/questions/3986/...
rfusca 30.01.11

2
@rfusca: Nie jestem pewien, czy się zgadzam. To jest konkretne pytanie dotyczące ogólnej koncepcji i myślę, że uzasadnia to traktowanie osobno od drugiej, która ma znacznie bardziej ogólną koncepcję, ale bardziej szczegółową w odniesieniu do modeli kamer. Nawiasem mówiąc, interesujące pytanie - krąg pomieszania o tym samym rozmiarze na mniejszym czujniku dającym więcej klatki w porównaniu z krokami, które wykonujesz wstecz, które mogą, ale nie muszą (szczerze mówiąc, nie wiem i nie mogę się doczekać, aby przeczytać odpowiedzi) przeciwdziałać że, zwłaszcza w przypadku zbliżenia do nieskończoności. Ciekawy!
Lindes

3
Cofnąłeś się i ponownie ustawiłeś ostrość, co oznacza dłuższą odległość ogniskowania, zwiększając DOF. Jeśli cofnąłeś się, ale nie zmieniłeś ostrości, głębia ostrości będzie taka sama , jednak oczywiście obiekt będzie nieostry. Pomyśl o tym, jeśli twój obiektyw nic nie robi , przesuwanie całego aparatu do przodu i do tyłu nigdy nie zmieni DOF. W momencie ponownego ustawiania ostrości obiektywu odległość ogniskowania jest inna.
Gapton,

„Trzymam ten sam obiektyw (tę samą ogniskową, tę samą przysłonę) i cofam się o kilka metrów, aby zachować pole widzenia ...” Kiedy używasz tej samej ogniskowej na czujniku innego rozmiaru, zmieniasz pole widok. Kiedy następnie cofasz się, aby obiekt miał mniej więcej ten sam rozmiar, nie zmieniasz pola widzenia z powrotem na to, co wcześniej, po prostu zmieniasz odległość do tła.
Michael C

1
@lindes Jeśli oba obrazy mają być oglądane w tym samym rozmiarze, obraz z mniejszego czujnika musi być powiększony bardziej niż obraz z większego czujnika, dlatego też wartość CoC będzie musiała być mniejsza dla obrazu z mniejszego czujnika. Ostatecznie wartość CoC oparta jest na procentowym rozmiarze ramki - zazwyczaj jest to miara przekątnej. Jeśli czujnik jest w połowie tak wysoki, a w połowie tak szeroki, zastosowana wartość CoC musi być również o połowę mniejsza niż w przypadku większego czujnika, aby uzyskać ten sam rozmiar kątowy po dwukrotnym powiększeniu, aby można go było oglądać w tym samym określonym rozmiarze ekranu.
Michael C

Odpowiedzi:


4

To zależy od tego, jak duża jest naprawdę „nieskończona” odległość. Kiedy cofniesz się od obiektu, aby zachować to samo powiększenie, względna odległość do obiektu w tle będzie mniejsza, dzięki czemu będzie mniej rozmazana.

Na przykład załóżmy, że zaczynasz od obiektu w odległości 10 stóp, a tło „nieskończonej” odległości jest naprawdę 100 stóp. Po przełączeniu na aparat APS-C cofasz się do 15 lub 16 stóp (w zależności od marki aparatu). W pierwszym przypadku drzewa były 10 razy dalej niż obiekt (i punkt ostrości). W drugim przypadku obiekt znajduje się na wysokości 15 stóp, a tło na 115, więc tło jest mniej niż 8 razy dalej niż punkt ostrości.

Jeśli Twoja „nieskończona” odległość naprawdę jest o wiele większa, efekt ten może stać się zbyt mały, aby się tym przejmować. Jeśli zaczniesz od tła 10000 razy dalej od obiektu, a następnie przesuń się, aby było tylko 9999 razy dalej, różnica prawdopodobnie będzie tak mała, że ​​nie będziesz w stanie jej zobaczyć ani nawet zmierzyć.


4

Rozmycie tła zależy od głębi ostrości. Głębokość pola (DOF) to odległość między najbliższymi i najdalszymi obiektami w scenie, które na obrazie wydają się akceptowalnie ostre ( wikipedia ). Cienka głębia ostrości pozwala izolować obiekt: obiekt jest ostry, a tło jest rozmyte. Głębokość pola zależy od kilku czynników:

  1. Ogniskowa obiektywu (35 mm, 200 mm, 50 mm)
  2. Przysłona obiektywu (f1,8, f5,6, f8)
  3. Rozmiar czujnika (APS-C, 35 mm, średni format, duży format)
  4. Odległość obiektu i stosunek odległości obiektu do odległości w tle

Przy (1) im dłuższa ogniskowa, tym cieńszy jest DOF. Z (2), im większy otwór (mniejsza liczba), tym cieńszy jest DOF Z (3), im większy czujnik, tym cieńszy DOF. *** Z (4), im bliżej jest obiektu, tym cieńsza jest DOF.

Przykład: Jeśli masz obiektyw 200 mm, powiedzmy f2,8, na pełnoklatkowym czujniku 35 mm, a obiekt znajduje się w pobliżu (2-3 m), możesz całkiem rozmazać tło.
I odwrotnie, jeśli masz obiektyw 35 mm, na f8, na przyciętym dslr (APS-C), a obiekt znajduje się w odległości 6 m od ciebie, tło naprawdę nie będzie rozmyte.

*** Nie jestem absolutnie pewien, czy jest to poprawne teoretycznie, ale w praktyce, przy takiej samej konfiguracji na matrycy APS-C i pełnej klatce, obraz FF ma płytsze DOF.

Czytaj więcej: http://en.wikipedia.org/wiki/Depth_of_field


Zapomniałem: jeśli tło jest dalej od obiektu, będzie rozmazane i odwrotnie.
JoséNunoFerreira


4
Ilekroć mówisz o czynnikach wpływających na głębię ostrości, ważne jest, aby w swoim porównaniu zachować to, co pozostajesz niezmienione, a co pozwalasz się różnić. Dla mnie sensowne jest utrzymanie tego samego kąta widzenia i odległości obiektu (tak, aby za każdym razem zbliżyć się do tego samego zdjęcia). Jeśli porównywałeś lustrzankę cyfrową i aparat kompaktowy, nie użyłbyś obiektywu 10 mm na lustrzance cyfrowej tylko dlatego, że aparat kompaktowy ma obiektyw 10 mm. Użyłbyś takiego, który daje taki sam kąt widzenia. Kiedy więc zmieniasz ogniskową, aby zachować kąt widzenia, DOF zmienia się wraz z rozmiarem czujnika.
Matt Grum,

2
Nie zgadzam się z początkowym stwierdzeniem „Rozmycie tła zależy od głębi ostrości”. Sam DOF nie determinuje rozmycia tła, co można zobaczyć tutaj na zdjęciach tutaj (identyczny DOF, ale różne rozmycie tła): bobatkins.com/photography/technical/bokeh_background_blur.html
Laurent

1
Właściwie, jeśli spojrzysz tutaj: bobatkins.com/photography/technical/bokeh.html i przewiniesz w dół do tabeli, w pierwszych 3 przypadkach zwiększa się DOF, a jednocześnie zwiększa się rozmycie tła. Tak więc 2 są naprawdę niezależne.
Laurent

4

Teoretycznie w obu przypadkach będzie dokładnie takie samo rozmycie tła. W praktyce działa to tylko wtedy, gdy tło jest bardzo daleko (znacznie dalej niż temat), jak wskazał Jerry Coffin. Jeśli ten warunek nie zostanie spełniony, korpus APS-C da ci nieco mniej rozmycia tła.

Najłatwiejszym sposobem na zrozumienie tego jest modelowanie światła tła jako źródła punktowego w nieskończoności, które będzie renderowane jako „dysk bokeh” na obrazie. Poziom rozmycia tła można zmierzyć przez stosunek średnicy tego dysku do całkowitego rozmiaru klatki. Ten stosunek bywa taki sam, jak stosunek między średnicą źrenicy wejściowej a rozmiarem pola widzenia w odległości, na którą skupia się soczewka.

Poniżej znajduje się mój gówniany schemat. Mam nadzieję, że to wszystko wyjaśni. schemat śledzenia promieni Weź pod uwagę, że otrzymany obraz jest tylko zmniejszoną wersją tego, co masz w płaszczyźnie ostrości. Wiązka w kolorze czerwonym jest wiązką światła wychodzącą ze źródła punktowego i przechodzącą przez źrenicę wejściową. Rzeczy, które oznaczyłem jako „dysk bokeh”, to miejsce, w którym wiązka przecina płaszczyznę ostrości. Ma dokładnie taką samą średnicę jak źrenica wejściowa, pod warunkiem, że źródło jest wystarczająco daleko i jest to obiektowy odpowiednik dysku bokeh. Rzeczywisty dysk bokeh żyje w przestrzeni obrazu i jest obrazem narysowanego tutaj dysku.


Edycja : Podejście, które tu stosuję, opiera się wyłącznie na parametrach od strony obiektu: polu widzenia i średnicy źrenicy wejściowej. Ten wybór często sprawia, że ​​obliczenia rozmycia (w tym głębi pola) są znacznie prostsze niż konwencjonalne podejścia obejmujące format matrycy, ogniskową i liczbę f: te parametry „ciemnej strony” nie są potrzebne, gdy znane są parametry po stronie obiektu .

Osobom, które nie są obeznane z tym „nieszablonowym” sposobem myślenia, gorąco polecam artykuł „ Głębia ostrości poza skrzynką” autorstwa Richarda F. Lyona. Mimo że artykuł ten dotyczy przede wszystkim głębi pola, podejście jest bardzo ogólne i można je bardzo łatwo zastosować do komputerowego rozmycia tła.


Innymi słowy, średnica dysku „bokeh” wynosi pupil_diameter × magnification.
Edgar Bonet

Czy zmiana rozmiaru czujnika (i wynikająca z tego zmiana kąta widzenia) nie zmienia powiększenia, gdy obrazy z obu czujników są oglądane w tym samym rozmiarze? Jeśli źrenica wejściowa ma ten sam rozmiar, ale kąt widzenia jest węższy, to czy dysk „bokeh” nie będzie stanowić większego odsetka całkowitej klatki (i tego rozmycia)? Ostatecznie powiększenie obejmuje współczynnik powiększenia między rozmiarem filmu / czujnika a rozmiarem wyświetlacza. Więc jeśli rozmiar źrenicy pozostaje stały (ta sama ogniskowa i liczba f), ale powiększenie jest zwiększone (powiększanie obrazu z mniejszej matrycy do tego samego rozmiaru)
Michael C

(cd.), wówczas średnica dysku „bokeh” wzrasta, a obraz robiony za pomocą mniejszego czujnika jest rozmazany (jeśli punktowe źródło światła jest naprawdę w nieskończoności - ale zwykle tak nie jest).
Michael C

@MichaelClark: 1. W warunkach pytania (to samo FoV na płaszczyźnie ostrości) zmieniłoby to powiększenie obrazu w zależności od czujnika, ale nie powiększenie obrazu w stosunku do wyświetlanego obiektu. 2. Nie.
Edgar Bonet

Pytanie jest nieprawidłowe, gdy twierdzi, że można użyć tej samej ogniskowej na czujniku o innym rozmiarze i uzyskać taki sam kąt widzenia. Musisz zmienić jedno lub drugie (ogniskowa lub AoV).
Michael C

2

Tak, efekt bokeh jest w rzeczywistości proporcjonalny do fizycznej szerokości otworu obiektywu.

Powiedzmy, że skupiasz się na obiekcie bliskiego pola w skończonej odległości = Z i masz kombinację kamery / obiektywu, która daje pole widzenia (FOV) o kątowej połowie szerokości = stopnie Q. Jeśli zdefiniujesz bokeh jako stosunek średnicy koła rozmycia B (zamazany obraz punktu tła w nieskończoności) do szerokości ramki obrazu W, wówczas

                     bokeh   =   B / W    ~    R / ( Z  * tanQ )

gdzie R jest promieniem otwarcia obiektywu - tj. połową średnicy (uwaga: w powyższym równaniu Z powinno technicznie być Z - F, gdzie F jest ogniskową obiektywu, ale zwykle można zignorować F, patrząc na daleki obiekt nieobecny).

Więc jeśli masz dwie kamery, dużą lustrzankę cyfrową i mały aparat typu „wyceluj i zrób zdjęcie”, oba z tym samym kątem pola widzenia (tj. Obiektywy mają taki sam odpowiednik 35 mm), to aparat z obiektywem o większej średnicy da ci więcej bokeh. Jest to niezależne od wielkości czujnika kamery.


Powyższe pytanie zakłada, że ​​ten sam obiektyw w obu aparatach jest używany z różnej odległości od obiektu, dzięki czemu bliski obiekt ma ten sam rozmiar. Czy możesz zmodyfikować swoją odpowiedź, aby uwzględnić założenie zawarte w pytaniu?
Michael C

1

Głębia ostrości zależy od dwóch czynników: odległości od fotografowanego obiektu i wielkości apertury fizycznej (obliczonej na podstawie ogniskowej podzielonej przez liczbę f). Głębia ostrości rośnie wraz z oddalaniem się od fotografowanego obiektu i maleje wraz ze wzrostem wielkości fizycznej apertury . Rozmiar czujnika nie wpływa bezpośrednio na efekt bokeh, ponieważ obraz wyświetlany przez obiektyw nie zmienia się, gdy jest używany w innym formacie czujnika; różne formaty czujników wykorzystują po prostu różne części koła obrazu. Większe czujniki umożliwiają płytszą głębię ostrości, ponieważ do uzyskania tego samego pola widzenia wymagana jest dłuższa ogniskowa, a dłuższa ogniskowa powoduje większy fizyczny otwór, a zatem płytszą głębię ostrości.

W związku z tym ten sam obiektyw przy tej samej przysłonie f przy tej samej odległości ogniskowania na dwóch różnych formatach czujników nie wpłynie na stopień rozmycia tła. Dostosowania wymagane przez różne formaty czujników (zmniejszona odległość od obiektu lub zwiększona ogniskowa na pełnej klatce względem APS-C) powodują różnicę w głębi pola.


1
Jest to także zwiększone powiększenie potrzebne do oglądania obrazu z mniejszego czujnika przy tym samym rozmiarze wyświetlacza, co obraz z większego czujnika. Tak więc krąg pomieszania użyty do obliczenia DOF dla obrazów z mniejszego czujnika musi być mniejszy, aby miał ten sam rozmiar kątowy, co CoC zastosowany dla obrazów z większego czujnika po powiększeniu obu o różne wartości, które można oglądać przy tym samym rozmiar.
Michael C

1

Wiele zostało powiedziane w poprzednich odpowiedziach i chcę tylko dodać wizualne porównanie określonych ustawień obiektywu, o których mówisz w swoim pytaniu. Jak powiedziano wcześniej, rozmycie tła zależy również od wielkości obiektu. Ta fabuła dotyczy portretu głowy i ramion.

Wykres porównawczy http://files.johannesvanginkel.nl/se_plot.JPG

Jak widać, kamera FF będzie miała więcej rozmycia tła, jednak ich wartości ostatecznie się zbiegają.

Źródło obrazu: http://howmuchblur.com/#compare-1x-50mm-f3.5- i-1.6x-50mm-f3.5-on-a-0.9m-wide-subject

Tutaj możesz również ustawić inny rozmiar obiektu, jeśli chcesz.


1

„Jak rozmycie tła (bokeh) ma związek z rozmiarem czujnika?”

Krótka odpowiedź: większy czujnik ma większy krąg zamieszania, co jest ważnym czynnikiem przy obliczaniu głębi ostrości (DOF), a zatem powoduje, że większy otwór (większy otwór) ma wystarczająco płytki DOF, aby umożliwić rozmycie punktu źródła (małe światła) w tle; tworząc efekt, który często (nieprawidłowo) nazywa się bokeh.

Jest niewielka różnica, którą szczegółowo opiszę później, biorąc pod uwagę odpowiednie korekty, aby utrzymać podobne kadrowanie.

Bokeh to rozmycie, które może również wystąpić na pierwszym planie i nie musi być ograniczone do odległych żarówek, chociaż niektóre ograniczają użycie tego terminu tylko do tych warunków. Łatwiej jest ocenić jakość bokeh, patrząc na punkty światła w tle i sprawdzając, czy wyglądają jak okrągłe gładkie dyski, tło nie jest jedynym miejscem, w którym występuje bokeh.

Termin bokeh pochodzi od japońskiego słowa boke (暈 け lub ボ ケ), co oznacza „rozmycie” lub „zamglenie” lub boke-aji (ボ ケ 味), „jakość rozmycia”. [Uwaga: Nie ma to nic wspólnego z maleńkimi światłami lub tłem a pierwszym planem, jest to jakość rozmycia poza głębią pola. I odwrotnie, ostrość to ostrość w głębi pola, szczególnie w ognisku].

Czy nie cieszysz się, że to była krótka wersja?

Zdjęcie zrobione aparatem Nikon 200.0 mm f / 2.0 na Nikonie D700, prawdopodobnie jednym z lepszych obiektywów fotograficznych z efektem bokeh. Źródło: Dustin Diaz .

Rodzina Rohe na stacji Powell St. BART

Licencja: Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych 2.0 Ogólne (CC BY-NC-ND 2.0)

Znalezienie tańszego obiektywu jest łatwe i wiele takich jak te : Hexanon AR 135 / 3.2, Pentacon 135 / 2.8, Rokkor 135 / 2.8, Trioplan 100 / 2.8, Vivitar 135 / 2.8, faktem jest, że bokeh wytwarzane przez którekolwiek z nich jest bardziej (grzecznie) kreatywny w przeciwieństwie do jakości i będziesz potrzebował adaptera wraz z kadrowaniem, jeśli używasz dużego czujnika. Mały czujnik i niedroga soczewka mogą dać satysfakcjonujące rezultaty dla niektórych (wielu?).

Znakiem tak zwanego idealnego bokeh jest to, że źródła punktowe będą wytwarzać okrągłe spodki bez pierścieni lub aberracji na dysku i stopniowe opadanie na krawędzi. Dyski powinny być okrągłe od krawędzi do krawędzi ramki obrazu za pomocą soczewki sferycznej.

Zeiss Master Prime

Podczas gdy soczewki anamorficzne wytwarzają charakterystyczny owalny efekt bokeh.

Gotuj anamorficzny


Zdefiniujmy kilka rzeczy, zanim przejdziemy do znacznie dłuższego wyjaśnienia.

  • Tło: Obszar za obiektem obrazu.

  • Pierwszy plan: obszar przed tematem obrazu.

  • Rozmycie : Aby spowodować niedoskonałość widzenia, spowodować niewyraźność lub zamglenie, zaciemnić. Antonim wyostrzenia.

  • Bokeh : Jakość rozmycia nieostrych obszarów obrazu poza głębią ostrości, gdy obiektyw jest prawidłowo ustawiony na obiekcie.

  • Koło pomieszania : w idealnej optyce promieniowanie zakłada się, że promienie zbiegają się do punktu, gdy są idealnie skupione, kształt plamki rozmycia rozmycia z soczewki o okrągłej aperturze jest twardym okręgiem światła. Bardziej ogólne miejsce rozmycia ma miękkie krawędzie z powodu dyfrakcji i aberracji ( Stokseth 1969, paywall ; Merklinger 1992, dostępne ) i może być niekołowe ze względu na kształt apertury.

    Uznając, że prawdziwe soczewki nie skupiają wszystkich promieni idealnie nawet w najlepszych warunkach, pojęcie najmniejszego zamieszania jest często używane w przypadku najmniejszego plamki, jaką może wytworzyć soczewka (Ray 2002, 89), na przykład poprzez wybranie najlepszej pozycji ostrości, która stanowi dobry kompromis między różnymi efektywnymi ogniskowymi różnych stref obiektywu z powodu aberracji sferycznych lub innych.

    Pojęcie kręgu pomieszania stosuje się bardziej ogólnie do wielkości nieostrego punktu, w którym soczewka obrazuje punkt obiektu. Dotyczy to 1. ostrości wzroku, 2. warunków oglądania oraz 3. powiększenia obrazu oryginalnego do obrazu końcowego. W fotografii koło zamieszania (CoC) służy do matematycznego określania głębi ostrości, czyli części obrazu, która jest akceptowalnie ostra.

  • Głębia ostrości : odległość między najbliższymi a najdalszymi obiektami w scenie, które na obrazie wydają się akceptowalnie ostre. Chociaż obiektyw może precyzyjnie ustawić ostrość tylko z jednej odległości na raz, zmniejszenie ostrości jest stopniowe po każdej stronie ogniskowanej odległości, tak że w przypadku DOF nieostrość jest niezauważalna w normalnych warunkach oglądania.

  • Rozmiar czujnika :

    • Fotografia: W fotografii rozmiar czujnika mierzy się na podstawie szerokości filmu lub obszaru aktywnego czujnika cyfrowego. Nazwa 35 mm pochodzi od całkowitej szerokości filmu 135 , perforowanej folii nabojowej, która była głównym nośnikiem formatu przed wynalezieniem pełnoklatkowej lustrzanki cyfrowej. Termin 135 ma nadal zastosowanie. W fotografii cyfrowej format ten stał się znany jako pełna klatka. Podczas gdy rzeczywisty rozmiar powierzchni użytkowej fotograficznego filmu 35 mm wynosi 24 w × 36h mm, 35 milimetrów odnosi się do wymiaru 24 mm plus otwory koła łańcuchowego (używane do przesuwania filmu).

    • Wideo : Rozmiary czujników wyrażane są w notacjach w calach, ponieważ w czasie popularyzacji cyfrowych czujników obrazu stosowano je zamiast lamp wideo. Typowe 1-calowe okrągłe lampy kamer wideo miały prostokątny obszar światłoczuły o przekątnej około 16 mm, więc czujnik cyfrowy o przekątnej 16 mm był odpowiednikiem 1-calowej tuby wideo. Nazwę 1-calowego czujnika cyfrowego należy dokładniej odczytać jako „1-calowy odpowiednik tuby kamery wideo”. Deskryptory obecnych rozmiarów cyfrowych czujników obrazu to rozmiar równoważnika tuby kamery wideo, a nie rzeczywisty rozmiar czujnika. Na przykład Czujnik 1 "ma przekątną 16 mm.

  • Temat: Obiekt, który zamierzasz uchwycić obraz, niekoniecznie wszystko, co pojawia się w ramce, z pewnością nie Photo Bombers , a często nie obiekty pojawiające się na skraju przedniej i tła; dlatego użycie bokeh lub DOF do rozogniskowania obiektów, które nie są przedmiotem.

  • Funkcja przenoszenia modulacji (MTF) lub przestrzenna odpowiedź częstotliwościowa (SFR): Względna odpowiedź amplitudowa systemu obrazowania jako funkcja wejściowej częstotliwości przestrzennej. ISO 12233: 2017 określa metody pomiaru rozdzielczości i współczynnika SFR elektronicznych aparatów fotograficznych. Pary linii na milimetr (lp / mm) były najczęstszą przestrzenną jednostką częstotliwości dla filmu, ale cykle / piksel (C / P) i szerokości linii / wysokość obrazu (LW / PH) są wygodniejsze dla czujników cyfrowych.


Teraz mamy nasze definicje na uboczu ...

Z Wikipedii:

CoC (mm) = odległość oglądania (cm) / żądana rozdzielczość obrazu końcowego (lp / mm) dla odległości oglądania / powiększenia 25 cm / 25

Na przykład, aby obsługiwać rozdzielczość końcowego obrazu odpowiadającą 5 lp / mm dla odległości oglądania 25 cm, gdy przewidywana odległość oglądania wynosi 50 cm, a przewidywane powiększenie wynosi 8:

CoC = 50/5/8/25 = 0,05 mm

Ponieważ ostateczny rozmiar zdjęcia nie jest zwykle znany w momencie robienia zdjęcia, często przyjmuje się standardowy rozmiar, taki jak szerokość 25 cm, wraz z konwencjonalnym CoC końcowego zdjęcia wynoszącym 0,2 mm, czyli 1/1250 szerokość obrazu. Powszechnie stosowane są również konwencje w zakresie miary przekątnej. DoF obliczona przy użyciu tych konwencji będzie musiała zostać dostosowana, jeśli oryginalny obraz zostanie przycięty przed powiększeniem do ostatecznego rozmiaru obrazu lub jeśli zmieni się rozmiar i założenia oglądania.

Stosując „formułę Zeissa”, krąg pomieszania jest czasami obliczany jako d / 1730, gdzie d jest miarą przekątnej oryginalnego obrazu (format kamery). W przypadku pełnoklatkowego formatu 35 mm (24 mm × 36 mm, przekątna 43 mm) wynosi on 0,025 mm. Bardziej rozpowszechnionym CoC jest d / 1500 lub 0,029 mm dla pełnoklatkowego formatu 35 mm, co odpowiada rozdzielczości 5 linii na milimetr na wydruku o przekątnej 30 cm. Wartości 0,030 mm i 0,033 mm są również wspólne dla pełnoklatkowego formatu 35 mm. Dla celów praktycznych, d / 1730, ostateczny obraz CoC wynoszący 0,2 mm id / 1500 dają bardzo podobne wyniki.

Zastosowano również kryteria odnoszące się do CoC do ogniskowej obiektywu. Kodak (1972), 5) zalecił 2 minuty kątowe (kryterium Snellena 30 cykli / stopień dla normalnego widzenia) do krytycznego widzenia, dając CoC ≈ f / 1720, gdzie f jest ogniskową obiektywu. Dla obiektywu 50 mm w pełnoklatkowym formacie 35 mm daje to CoC ≈ 0,0291 mm. Kryterium to najwyraźniej zakładało, że obraz końcowy będzie oglądany z odległości „poprawnej z perspektywy” (tj. Kąt widzenia będzie taki sam jak na oryginalnym obrazie):

Odległość widzenia = ogniskowa obiektywu × powiększenie

Jednak obrazy rzadko są oglądane z „właściwej” odległości; widz zazwyczaj nie zna ogniskowej obiektywu, a „poprawna” odległość może być niewygodnie krótka lub długa. W związku z tym kryteria oparte na ogniskowej obiektywu zasadniczo ustąpiły miejsca kryteriom (takim jak d / 1500) związanym z formatem aparatu.

Ta wartość COC reprezentuje maksymalną średnicę plamki rozmycia, mierzoną na płaszczyźnie obrazu, która wydaje się być ostra. Punkt o średnicy mniejszej niż ta wartość COC pojawi się jako punkt światła, a zatem na obrazie będzie ostry. Miejsca o większej średnicy będą dla obserwatora rozmyte.

  • Brak symetrii DOF:

DOF nie jest symetryczny. Oznacza to, że obszar akceptowalnej ostrości nie ma tej samej odległości liniowej przed i za płaszczyzną ogniskowania. Wynika to z tego, że światło z bliższych obiektów zbiega się w większej odległości za płaszczyzną obrazu niż odległość, którą światło z dalszych obiektów zbiega przed płaszczyzną obrazu.

Przy stosunkowo niewielkich odległościach DOF jest prawie symetryczny, z około połową pola ostrości istniejącą przed płaszczyzną ostrości, a drugą połową pojawiającą się później. Im dalej płaszczyzna ogniskowa przesuwa się od płaszczyzny obrazu, tym większe przesunięcie symetrii sprzyja obszarowi poza płaszczyzną ogniskowania. Ostatecznie soczewka skupia się w punkcie nieskończoności, a DOF osiąga maksymalną asymetrię, przy czym znaczna większość ogniskowanego obszaru znajduje się poza płaszczyzną ostrości do nieskończoności. Odległość ta znana jest jako „ odległość hiperfokalna ” i prowadzi nas do następnej sekcji.

Odległość hiperfokalna jest definiowana jako odległość, gdy soczewka jest ogniskowana w nieskończoności, gdzie obiekty od połowy tej odległości do nieskończoności będą ogniskowane dla określonej soczewki. Alternatywnie odległość hiperfokalna może odnosić się do najbliższej odległości, na jaką można ustawić ostrość dla danego otworu, podczas gdy obiekty w odległości (nieskończoności) pozostaną ostre.

Odległość hiperfokalna jest zmienna i jest funkcją apertury, ogniskowej i wspomnianego wcześniej COC. Im mniejszy jest otwór obiektywu, tym bliżej obiektywu staje się odległość hiperfokalna. Odległość hiperfokalna jest używana w obliczeniach używanych do obliczania DOF.

Z Wikipedii:

Ta witryna SE nie wydaje się obsługiwać Mathjax

Istnieją cztery czynniki, które określają DOF:

  1. Koło zamieszania (COC)
  2. Przysłona obiektywu
  3. Ogniskowa obiektywu
  4. Odległość ostrości (odległość między obiektywem a obiektem)

DOF = Daleki punkt - Near Point

DOF, punkt bliski i daleki

DOF po prostu informuje fotografa, w jakich odległościach przed i za odległością ustawiania ostrości wystąpi rozmycie. Nie określa, jak rozmyte lub jaka „jakość” będą te obszary. Konstrukcja obiektywu, konstrukcja przysłony i tło określają cechy rozmycia - jego intensywność, fakturę i jakość.

Im krótsza ogniskowa obiektywu, tym dłuższy jest DOF.

Im dłuższa jest ogniskowa obiektywu, tym krótszy jest DOF.

Jeśli rozmiar czujnika nie pojawia się nigdzie w tych formułach, jak zmienia on DOF?

Istnieje kilka podstępnych sposobów, w jakie rozmiar formatu zakrada się do matematyki DOF:

Enlargement factor

Focal Length

Subject-to-camera / focal distance

Jest to spowodowane współczynnikiem przycięcia i uzyskaną ogniskową oraz koniecznym otworem dla zdolności czujnika do gromadzenia światła, który ma największy wpływ na twoje obliczenia.

Czujnik o wyższej rozdzielczości i soczewka lepszej jakości będą wytwarzać lepszy efekt bokeh, ale nawet czujnik i obiektyw wielkości telefonu komórkowego mogą generować rozsądnie akceptowalny efekt bokeh.

Korzystanie z tej samej ogniskowej obiektywu w aparacie APS-C i pełnej klatce w tej samej odległości między obiektem a aparatem tworzy dwa różne kadry obrazu i powoduje różnice w odległości i grubości DOF (głębokość pola).

Przełączanie obiektywów lub zmiana obiektu na aparat zgodnie ze współczynnikiem kadrowania podczas przełączania między aparatem APS-C i aparatem pełnoklatkowym, aby zachować identyczne kadrowanie, daje podobny DOF. Przesunięcie pozycji w celu utrzymania identycznego kadrowania nieznacznie faworyzuje czujnik pełnoklatkowy (dla większego DOF), tylko przy zmianie obiektywu w celu dopasowania do współczynnika kadrowania i utrzymania kadrowania większy czujnik zyskuje węższy DOF (i niewiele).

Zaleta apertury sprawia, że ​​matryca pełnoklatkowa jest lepszym i droższym wyborem zarówno dla aparatu, jak i obiektywów, a często także dla funkcji (FPS nie jest jednym z nich, nie ma też wielkości i wagi).

Przejście na czujnik średniej wielkości w porównaniu z małym czujnikiem ma przewagę nad większym czujnikiem, ale efekt bokeh prawdopodobnie nie jest najlepszym rozwiązaniem uzasadniającym ponad 20-krotną różnicę w cenie.

Większa liczba pikseli na kropkę światła z pewnością zapewni płynniejszy efekt bokeh, ale zbliżyłaby się do niego z małą kamerą z matrycą. Możesz zarobić więcej proporcjonalności za korzystanie z droższego sprzętu, jeśli zarabiasz na swoich zdjęciach lub filmach, w przeciwnym razie odrobina pracy nóg lub dodatkowe tańsze obiektywy pozwolą zaoszczędzić dużo pieniędzy w porównaniu z inwestowaniem w system wielkoformatowy.


Sekcja Wikipedia: Rozmycie pierwszego planu i tła .

Przeczytaj artykuł „ Staging Foregrounds ” autorstwa RJ Kern na temat rozmycia pierwszego planu, który obejmuje wiele zdjęć z rozmyciem tła i pierwszego planu.

B&H ma 3 częściowy artykuł na temat DOF: Głębia ostrości, Część I: Podstawy , Część II: Matematyka i Część III: Mity .

Co najważniejsze, „bokeh” to nie tylko „rozmycie tła”, ale wszystkie rozmycie poza DOF; nawet na pierwszym planie . Chodzi o to, że małe światła na odległość łatwiej ocenić jakość bokeh.

Bokeh na pierwszym planie


Jest to bardzo dokładne omówienie tematu głębi ostrości. Jest to również dobrze zilustrowane. Jednakże, jako odpowiedź, to całkowicie mija się z celem na pytanie, co jest specyficznie nie o głębi ostrości. Pytanie dotyczy stopnia rozmycia odległego tła, które, choć stycznie związane z głębią ostrości, jest jednak zupełnie inną kwestią.
Edgar Bonet

Tak. To bardzo proste pytanie, a odpowiedź dla tła w nieskończoności (jak założono w pytaniu) brzmi: „ tak, będziesz miał tyle samo rozmycia tła ”.
Edgar Bonet

W ramach definicji kręgu zamieszania : „... z powodu niedokładności w niedoskonałej soczewce” jest nieprawidłowa. Wynika to z natury światła i właściwości fizyki. Idealny obiektyw (w przeciwieństwie do idealnej otworkowej) zawsze ma jeden punkt ostrości. Wszystko bliżej lub dalej jest rozmazane proporcjonalnie do odległości od punktu ostrości. Tylko rozmycie w dokładnym punkcie ostrości jest spowodowane niedoskonałością obiektywu. Reszta jest spowodowana przez stożek światła, nawet jeśli jest idealnie rzutowany, nie przecinający płaszczyzny obrazowania na końcu jego stożka.
Michael C

Chciałbym zasugerować, że opublikujesz to jako odpowiedź na pytanie: co dokładnie określa głębię ostrości?
Michael C

Komentarze mogą zostać usunięte w dowolnym momencie. A potem jest ta meta dyskusja na temat zamieszczania odpowiedzi jako komentarza, co jest faktycznie tym, co zrobiłeś.
Michael C
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.