Co dokładnie określa głębię ostrości?


64

Jest tu kilka pytań dotyczących definicji głębi ostrości , długości ogniskowej i odległości od obiektu . I oczywiście jest podstawowa, w jaki sposób przysłona wpływa na moje zdjęcia . I mnóstwo odpowiedzi na pytania dotyczące płytkich dof . Jest Podobne pytania jak ten jeden . Ale nie ma pytania typu „wszystko na końcu”:

Co dokładnie określa głębię ostrości na zdjęciu?

Czy to tylko własność obiektywu? Czy obiektywy można zaprojektować tak, aby zapewniały większą głębię ostrości dla tej samej apertury i ogniskowej? Czy zmienia się wraz z rozmiarem matrycy aparatu? Czy zmienia się wraz z rozmiarem wydruku? Jak te ostatnie dotyczą?



@Rob Lepiej opisać to, co łączysz, niż powiedzieć, kto zaproponował link. :)
mattdm

Odpowiedzi:


54

Ok, dla odmiany zrezygnuję z wzorów, zdjęć linijek i definicji „powiększenia” i pójdę za tym, czego faktycznie doświadczasz w praktyce. Główne czynniki, które faktycznie mają znaczenie dla strzelania, to:

  • Otwór. Obiektywy z szeroką przysłoną zapewniają płytszą głębię ostrości . Jest to prawdopodobnie najmniej kontrowersyjny czynnik! Jest to ważne, ponieważ niektóre obiektywy mają znacznie większe przysłony, np. 18–55 f / 3,5–5,6 w porównaniu z 50 f / 1,8

  • Odległość od przedmiotu. To bardzo ważna uwaga. Głębokość pola staje się drastycznie płytsza, gdy zaczynasz się naprawdę zbliżać . Jest to ważne, ponieważ w przypadku odległości ogniskowania makro głównym problemem jest DOF. Oznacza to również, że możesz uzyskać płytką głębię ostrości niezależnie od przysłony, jeśli zbliżysz się wystarczająco blisko, a jeśli chcesz głębokiej głębi ostrości w słabym świetle, skomponuj, aby ustawić ostrość dalej.

  • Długość ogniskowa. Wpływa to na głębię ostrości, ale tylko w niektórych zakresach, przy zachowaniu wielkości obiektu . Szerokie obiektywy mają bardzo głęboką głębię ostrości w większości odległości od obiektu. Po przekroczeniu pewnego punktu DoF zmienia się bardzo niewiele wraz z ogniskową. Jest to znowu ważne, ponieważ jeśli chcesz zwiększyć / zmniejszyć DOF, możesz użyć do tego ogniskowej, jednocześnie wypełniając kadr fotografowanym obiektem.

  • Rozmiar czujnika Wpływa to na DoF, jeśli utrzymujesz tę samą odległość od obiektu i pole widzenia między rozmiarami czujników . Im większy czujnik, tym mniejsza głębia ostrości. Lustrzanki cyfrowe mają znacznie większe czujniki niż kompaktowe, a zatem dla tego samego współczynnika FoV i f mają płytsze DOF. Jest to ważne, ponieważ przez ten sam obraz przycinanie znaczników zwiększa DoF przy zachowaniu tego samego końcowego rozmiaru wyjściowego, ponieważ jest to podobne do używania mniejszego czujnika.


2
Czy nie można tego podsumować na dwa czynniki: przysłonę i rozmiar obiektu na matrycy?
Kristof Claes,

3
+1 za wyrzucenie liczb i uczynienie tego praktycznym - zawsze zastanawiałem się, jak ktokolwiek może ocenić coś, co może być nieostre lub nieostre do trzech miejsc po przecinku z prostą twarzą.

6
@Kristof możesz, ale okazuje się, że kończy się to mylącymi ludźmi, zamiast tego chciałem skoncentrować się na tym, jak cztery typowe dane wejściowe można wykorzystać do manipulowania DoF w normalnych warunkach fotografowania.
Matt Grum,

@Kristof można to streścić w jednej koncepcji: odległość hiperfokalna. Ale o wiele bardziej intuicyjne jest korzystanie z czynników podanych przez Matta
pau.estalella

1
Ostatni punkt jest nieco niepoprawny / niejasny. Biorąc pod uwagę różne rozmiary czujników, ale utrzymanie tego samego pola widzenia naprawdę oznacza zmianę ogniskowych, którą omówiłeś w poprzednim punkcie. Zmiana rozmiaru czujnika dla danej lub stałej ogniskowej nie zmienia DOF, ponieważ DOF jest funkcją parametrów obiektywu (ogniskowej, f / # i odległości od obiektu).
daaxix

36

To doskonałe pytanie, które ma różne odpowiedzi w zależności od kontekstu. Wspomniał pan o kilku szczegółowych pytaniach, z których każde może uzasadniać ich własne odpowiedzi. Postaram się tutaj zająć ich bardziej jako zjednoczoną całością.


P: Czy to tylko własność obiektywu?
A. Mówiąc wprost , nie , chociaż jeśli zignorujesz CoC, można (biorąc pod uwagę matematykę) przedstawić argument, że tak jest. Głębia ostrości jest „rozmyta” i bardzo zależy od kontekstu oglądania. Rozumiem przez to, że zależy to od tego, jak duży oglądany jest końcowy obraz w stosunku do natywnej rozdzielczości czujnika; ostrość wzroku widza; przysłona używana podczas wykonywania zdjęcia; odległość do fotografowanego obiektu podczas fotografowania.

P: Czy obiektywy można zaprojektować tak, aby zapewniały większą głębię ostrości dla tej samej apertury i ogniskowej? A. Biorąc pod uwagę matematykę, musiałbym powiedzieć nie. Nie jestem inżynierem optycznym, więc weź to, co mówię, z niezbędnym ziarnem soli. Jednak mam tendencję do podążania za matematyką, co jest dość jasne w kwestii głębi ostrości.

P: Czy zmienia się wraz z rozmiarem czujnika kamery?
A. Ostatecznie to zależy tutaj. Ważniejsze niż rozmiar czujnika byłoby minimalne Koło Zamieszania (CoC) medium obrazującego. Co ciekawe, Koło Zamieszania medium obrazującego niekoniecznie jest nieodłączną cechą, ponieważ minimalny dopuszczalny CoC jest często określany przez maksymalny rozmiar, w którym zamierzasz drukować. Cyfrowe czujniki mają ustalony minimalny rozmiar CoC, ponieważ rozmiar pojedynczego sensela jest tak mały, jak to tylko możliwe, z jednego punktu świetlnego (w czujniku Bayera rozmiar kwartetu senselów jest w rzeczywistości najmniejszą rozdzielczością).

P: Czy zmienia się wraz z rozmiarem wydruku?
A. Być może biorąc pod uwagę odpowiedź na poprzednie pytanie. Skalowanie obrazu powyżej, a nawet poniżej, jego „natywny” rozmiar wydruku może wpłynąć na wartość użytą dla minimalnego dopuszczalnego CoC. Dlatego tak, rozmiary, w których zamierzasz drukować, odgrywają pewną rolę, jednak powiedziałbym, że rola jest na ogół niewielka, chyba że drukujesz w bardzo dużych rozmiarach.


Z matematycznego punktu widzenia jest jasne, dlaczego funkcja DoF nie jest po prostu funkcją obiektywu i obejmuje albo nośnik obrazowania, albo rozmiar wydruku z perspektywy CoS. Aby jasno określić czynniki DoF:

Głębia ostrości jest funkcją ogniskowej, efektywnej przysłony, odległości od obiektu i minimalnego kręgu pomieszania. Minimalne koło zamieszania jest miejscem, w którym rzeczy stają się rozmyte, ponieważ można to postrzegać jako funkcję nośnika obrazowania lub funkcję wielkości wydruku.

Istnieje kilka wzorów matematycznych, których można użyć do obliczenia głębi ostrości. Niestety, wydaje się, że nie istnieje jedna formuła, która dokładnie tworzy głębię ostrości w dowolnej odległości od obiektu. Hyperfocal Distancelub odległość, przy której efektywnie osiągasz maksymalną wartość DOF, można obliczyć w następujący sposób:

H = f 2 / (N * c)

Gdzie:

H = odległość hiperfokalna
f = ogniskowa
N = liczba f (otwór względny)
c = krąg pomieszania

Krąg zamieszania jest tutaj dziwaczną wartością, więc omówimy to później. Przydatna średnia wartość CoC dla czujników cyfrowych może wynosić 0,021 mm . Ta formuła podaje odległość hiperfokalną, która nie mówi dokładnie, jaka jest twoja głębia ostrości, a raczej określa odległość obiektu, na którą powinieneś się skupić, aby uzyskać maksymalną głębię ostrości. Aby obliczyć rzeczywisty Depth of Field, potrzebujesz dodatkowych obliczeń. Poniższy wzór zapewni DOF dla średnich i dużych odległości między obiektami, co w szczególności oznacza, że ​​odległość do obiektu jest większa niż ogniskowa (tj. Ujęcia inne niż makro):

Dn = (H * s) / (H + s)
Df = (H * s) / (H - s) {dla s <H

DOF = Df - Dn
DOF = (2 * H * s) / (H 2 - s 2 ) {dla s <H

Gdzie:

Dn = Bliski limit DoF
Df = Daleki limit DoF
H = Odległość hiperfokalna (poprzednia formuła)
s = Odległość od obiektu (odległość, na którą ustawia się ostrość, może w rzeczywistości nie być „przedmiotem”)

Gdy odległość obiektu jest odległością hiperfokalną:

Df = „nieskończoność” Dn = H / 2

Gdy odległość obiektu jest większa niż odległość hiperfokalna:

Df = nieskończony Dn = „nieskończoność”

Określenie „nieskończoność” nie jest tutaj używane w klasycznym znaczeniu, jest raczej terminem inżynierii optycznej, oznaczającym punkt ogniskowy poza odległością hiperfokalną. Pełna formuła do obliczania DOF bezpośrednio, bez wcześniejszego obliczania odległości hiperfokalnej, jak następuje (zamiennik H):

DOF = 2Ncf 2 s 2 / (f 4 - N 2 c 2 s 2 )

Jeśli zignorujemy rozmiar wydruku i film, dla danego czujnika cyfrowego o określonej gęstości pikseli , DoF jest funkcją ogniskowej, względnej apertury i odległości od obiektu. Na tej podstawie można wysunąć argument, że DoF jest wyłącznie funkcją obiektywu, ponieważ „odległość obiektu” odnosi się do odległości, na którą ogniskuje się soczewka , która również byłaby funkcją obiektywu.

W przeciętnym przypadku można założyć, że CoC jest zawsze minimum osiągalnym dzięki czujnikowi cyfrowemu, który obecnie mierzy średnio 0,021 mm, chociaż realistyczny zakres obejmuje czujniki APS-C, APS-H i czujniki pełnoklatkowe w dowolnym miejscu od 0,015 mm - 0,029 mm . W przypadku większości popularnych rozmiarów wydruku, około 13 x 19 cali lub mniejszych, akceptowalny współczynnik CoC wynosi około 0,05 mm, czyli około dwa razy więcej niż średnia dla czujników cyfrowych. Jeśli jesteś typem, który lubi drukować w bardzo dużych rozmiarach, współczynnik CoC może być czynnikiem mniej niż 0,01 mm), a widoczna wartość DOF w dużym powiększeniu będzie mniejsza niż obliczona matematycznie.


Powyższe wzory obowiązują tylko wtedy, gdy odległość sjest znacznie większa niż ogniskowa obiektywu. Jako taki rozpada się w przypadku fotografii makro. Jeśli chodzi o fotografię makro, znacznie łatwiej jest wyrazić DoF pod względem ogniskowej, względnej apertury i powiększenia obiektu (tj. 1,0x):

DOF = 2Nc * (((m / P) + 1) / m 2 )

Gdzie:

N = liczba f (otwór względny)
c = minimalny CoC
m = powiększenie
P = powiększenie źrenicy

Formuła jest dość prosta, poza aspektem powiększenia źrenicy. Prawdziwy, właściwie zbudowany makroobiektyw będzie miał w dużej mierze równoważne źrenice wejściowe i wyjściowe (wielkość otworu widzianego z przodu obiektywu (wejście) i rozmiar otworu widzianego z tyłu obiektywu (wyjście)) , chociaż mogą nie być dokładnie identyczne. W takich przypadkach można przyjąć wartość 1 dla P, chyba że masz uzasadnione wątpliwości.

W przeciwieństwie do DoF dla średnich i dużych odległości od obiektu, z makrofotografią 1: 1 (lub lepszą), ZAWSZE powiększasz do druku, nawet jeśli drukujesz w rozdzielczości 2x3 ". Przy typowych rozmiarach wydruku, takich jak 8x10, 13x19 itp., Współczynnik powiększenia może być znaczna Należy założyć, że CoC jest co najmniej możliwe do rozwiązania dla twojego medium obrazującego, które wciąż prawdopodobnie nie jest wystarczająco małe, aby zrekompensować pozorny skurcz DOF z powodu powiększenia.


Poza złożoną matematyką, DoF można intuicyjnie wizualizować dzięki podstawowemu zrozumieniu światła, tego, jak optyka wygina światło i jaki wpływ ma apertura na światło.

Jak apertura wpływa na głębię ostrości? Ostatecznie sprowadza się do kątów promieni światła, które faktycznie docierają do płaszczyzny obrazu. Na szerszym otworze wszystkie promienie, w tym te z zewnętrznej krawędzi obiektywu, docierają do płaszczyzny obrazu. Membrana nie blokuje żadnych przychodzących promieni światła, więc maksymalny kąt światła, który może dotrzeć do czujnika, jest wysoki (bardziej ukośny). Dzięki temu maksymalny CoC może być duży, a przejście od skupionego punktu światła do maksymalnego CoC jest szybkie:

wprowadź opis zdjęcia tutaj

Przy węższym otworze przysłona NIE blokuje światła na obrzeżach stożka światła, podczas gdy światło ze środka jest przepuszczane. Maksymalny kąt promieni świetlnych docierających do czujnika jest niski (mniej ukośny). To powoduje, że maksymalna wartość CoC jest mniejsza, a przejście od skupionego punktu światła do maksymalnej wartości CoC jest wolniejsze. (Starając się, aby schemat był jak najprostszy, efekt aberracji sferycznej został zignorowany, więc schemat nie jest w 100% dokładny, ale powinien nadal wykazywać punkt):

wprowadź opis zdjęcia tutaj

Przysłona zmienia tempo wzrostu CoC. Szersze otwory zwiększają szybkość, z jaką rosną nieostre kręgi rozmycia, dlatego DoF jest płytsze. Węższe otwory zmniejszają szybkość, z jaką rosną nieostre kręgi rozmycia, dlatego głębia ostrości jest głębsza.


Dowody

Tak jak w przypadku wszystkiego, zawsze należy udowodnić tę koncepcję, wykonując matematykę. Oto kilka intrygujących wyników podczas uruchamiania powyższych wzorów z kodem F # w narzędziu F # Interactive w wierszu poleceń (łatwe do pobrania dla każdego i dwukrotnego sprawdzenia):

(* The basic formula for depth of field *)
let dof (N:float) (f:float) (c:float) (s:float) = (2.0 * N * c * f**2. * s**2.)/(f**4. - N**2. * c**2. * s**2.);;

(* The distance to subject. 20 feet / 12 inches / 2.54 cm per in / 10 mm per cm *)
let distance = 20. / 12. / 2.54 / 10.;;

(* A decent average minimum CoC for modern digital sensors *)
let coc = 0.021;;

(* DoF formula that returns depth in feet rather than millimeters *)
let dof_feet (N:float) (f:float) (c:float) (s:float) =
  let dof_mm = dof N f c s
  let dof_f = dof_mm / 10. / 2.54 / 12.
  dof_f;;

dof_feet 1.4 50. coc distance
> val it : float = 2.882371793
dof_feet 2.8 100. coc distance
> val it : float = 1.435623728

Rezultat powyższego programu jest intrygujący, ponieważ wskazuje, że na głębię pola rzeczywiście ma bezpośredni wpływ ogniskowa jako niezależny czynnik od względnej apertury, zakładając jedynie zmiany ogniskowej i wszystko inne pozostaje równe. Dwa DoF zbiegają się dla f / 1.4 i f / 5.6, jak pokazano w powyższym programie:

 dof_feet 1.4 50. coc distance
 > val it : float = 2.882371793
 dof_feet 5.6 100. coc distance
 > val it : float = 2.882371793

Intrygujące wyniki, choć trochę nieintuicyjne. Kolejna zbieżność występuje po dostosowaniu odległości, co zapewnia bardziej intuicyjną korelację:

let d1 = 20. * 12. * 2.54 * 10.;;
let d2 = 40. * 12. * 2.54 * 10.;;

dof_feet 2.8 50. coc d1;;
> val it : float = 5.855489431
dof_feed 2.8 100. coc d2;;
> val it : float = 5.764743587

Przeprosiny. Starałem się rozdzielić te koncepcje, aby diagramy były prostsze, ale w rzeczywistości są one nieuchronnie powiązane. Moje próby wyłączenia apertury ze schematu ogniskowej miały odwrotny skutek, więc je usunąłem. Rzeczywistym punktem, który próbowałem zrobić, było po prostu to, że DoF jest ostatecznie determinowany przez rozbieżność kąta światła między źródłami światła w punkcie skupienia i poza punktem skupienia lub „szybkość zmian CoC”. Im szybsze tempo zmian, tym cieńsza jest DOF.
jrista

@jrista: Z pewnością się z tym zgadzam. Chociaż powoduje to pewną złożoność, warto wspomnieć, dlaczego zmiana ogniskowej nie wpływa na DoF (ponieważ rzeczy są zwykle mierzone). Długo to zrozumiałem.
Jerry Coffin,

Pod koniec zamieszczonej odpowiedzi próbowałem dodać krótkie / proste wyjaśnienie, w jaki sposób ogniskowa wpływa na DoF. Nie jestem jednak pewien, czy to jest naprawdę odpowiednie - chętnie przyjmę wszelkie komentarze ...
Jerry Coffin

2
@jrista: Nie wiem - jedyne, o czym myślę, to to, że niektórzy ludzie automatycznie uważają „matematykę” i „sztukę” za totalne przeciwieństwa, więc przeszkadza im zajmowanie się czymkolwiek artystycznym za pomocą matematyki. IMO, to dość smutne: za większością sztuki kryje się wiele matematyki (np. Teoria muzyki jest prawie całkowicie matematyczna). i jeśli o to chodzi, powiedziałbym, że sama matematyka powinna być uważana za sztukę.
Jerry Coffin,

1
To naprawdę żałosna odpowiedź i doceniam matematykę i diagramy. Zmieniłem odpowiedź „zaakceptowaną” na krótszą „tylko praktyczną”, aby nowi fotografowie zainteresowani pytaniem zobaczyli to jako pierwsze.
mattdm

11

Komentarz Mata Gruma jest całkiem dobry: musisz bardzo uważać, aby określić warunki, lub możesz skończyć z trzema osobami, które mówią rzeczy, które wydają się być w konflikcie, ale tak naprawdę mówią tylko o różnych warunkach.

Po pierwsze, aby sensownie zdefiniować DoF, musisz określić ilość „rozmycia”, którą chcesz zaakceptować jako wystarczająco ostry. Głębia ostrości to po prostu pomiar, gdy coś, co zaczęło się jako punkt w oryginale, będzie rozmyte na tyle, aby stało się większe niż wybrany rozmiar.

Zwykle zmienia się to wraz z rozmiarem, w jakim drukujesz zdjęcie - większe zdjęcia są zwykle oglądane z większej odległości, więc dopuszczalne jest rozmycie. Większość oznaczeń soczewek itp. Jest definiowana w oparciu o wydruk około 8x10 oglądany z grubsza na odległość ramienia (kilka stóp lub więcej). Matematyka tego jest dość prosta: zacznij od oszacowania ostrości wzroku, która będzie mierzona jako kąt. Następnie po prostu zastanawiasz się, do jakiego rozmiaru ten kąt działa w określonej odległości.

Zakładając, że wybieramy do tego jedną liczbę i trzymamy się jej, głębia ostrości zależy tylko od dwóch czynników: przysłony i współczynnika reprodukcji. Im większy współczynnik reprodukcji (tzn. Im większy element pojawia się na matrycy / filmie w porównaniu do jego rozmiaru w prawdziwym życiu), tym mniejsza jest głębia ostrości. Podobnie, im większy otwór (większy otwór średnicy - mniejsza liczba f / stop), tym mniejsza głębia ostrości.

Wszystkie pozostałe czynniki (rozmiar czujnika i ogniskowa są dwoma bardziej oczywistymi) wpływają tylko na głębię ostrości w zakresie, w jakim wpływają na współczynnik reprodukcji lub przysłonę.

Na przykład nawet bardzo szybki (duży otwór) obiektyw o krótkiej ogniskowej sprawia, że ​​dość wysoki współczynnik reprodukcji jest dość trudny. Na przykład, jeśli robisz zdjęcie osobie z obiektywem 20 mm f / 2, obiektyw musi go praktycznie dotknąć, zanim uzyskasz bardzo duży współczynnik reprodukcji. Przeciwnie, dłuższe obiektywy często wydają się mieć mniejszą głębię ostrości, ponieważ sprawiają, że względnie łatwo jest uzyskać duży współczynnik reprodukcji.

Jednak jeśli naprawdę utrzymujesz stały współczynnik reprodukcji, głębia ostrości jest naprawdę stała. Na przykład, jeśli masz obiektyw 20 mm i 200 mm i robisz zdjęcie przy każdym (powiedzmy) f / 4, ale zrób zdjęcie z odległości 200 mm z 10-krotnej odległości, aby obiekt był naprawdę tego samego rozmiaru te dwa teoretycznie mają tę samą głębię ostrości. Jednak zdarza się to tak rzadko, że jest to w większości teoretyczne.

To samo dotyczy wielkości czujnika: teoretycznie, jeśli współczynnik reprodukcji jest utrzymywany na stałym poziomie, rozmiar czujnika jest całkowicie nieistotny. Z praktycznego punktu widzenia jednak rozmiar czujnika ma znaczenie z bardzo prostego powodu: niezależnie od rozmiaru czujnika, generalnie chcemy tego samego kadru . Oznacza to, że wraz ze wzrostem rozmiaru czujnika prawie zawsze stosujemy duże współczynniki reprodukcji. Na przykład typowe ujęcie głowy i ramion osoby może obejmować wysokość, powiedzmy, 50 cm (użyję danych metrycznych, aby dopasować to, jak zwykle podaje się rozmiary czujników). W kamerze z widokiem 8 x 10, która osiąga współczynnik reprodukcji około 1: 2, dając bardzo małą głębię ostrości. W przypadku czujnika o pełnym rozmiarze 35 mm współczynnik reprodukcji wynosi około 1:14, co daje wielewiększa głębia ostrości. W kompaktowym aparacie z, powiedzmy, matrycą 6,6 x 8,8 mm, osiąga około 1:57.

Gdybyśmy użyli kompaktowego aparatu z tym samym współczynnikiem reprodukcji 1: 2 co 8x10, uzyskalibyśmy tę samą głębię ostrości - ale zamiast głowy i ramion, robilibyśmy zdjęcie części jednej gałki ocznej.

Należy jednak wziąć pod uwagę jeszcze jeden czynnik: w przypadku krótszej soczewki obiekty w tle stają się znacznie mniejsze „szybciej” niż w przypadku dłuższej soczewki. Weźmy na przykład osobę z płotem 20 stóp za nimi. Jeśli robisz zdjęcie z odległości 5 stóp z obiektywem 50 mm, ogrodzenie jest 5 razy tak daleko od osoby, że wygląda na stosunkowo małe. Jeśli zamiast tego użyjesz obiektywu 200 mm, musisz cofnąć się o 20 stóp, aby osoba była tego samego rozmiaru - ale teraz ogrodzenie jest tylko dwa razy dalej, a nie 5 razy dalej, więc wygląda na stosunkowo duży, dzięki czemu ogrodzenie (i stopień jego rozmycia) jest bardziej widoczne na zdjęciu.

Edycja2: Ponieważ (poniekąd) namówiłem @jristę do usunięcia jego schematu dotyczącego ogniskowej i głębi ostrości, prawdopodobnie powinienem spróbować wyjaśnić, dlaczego nie ma związku między ogniskową i głębią ostrości - przynajmniej patrząc na rzeczy sposób, w jaki są zwykle mierzone w fotografii.

A dokładniej, przysłona fotograficzna (obecnie) jest powszechnie mierzona jako ułamek ogniskowej - jest zapisywana jak ułamek (liczba f /), bo tak właśnie jest.

Na przykład dość dobrze wiadomo, że na f / 1.4 uzyskasz mniejszą głębię ostrości niż na f / 2.8. To, co nie musi od razu być tak oczywiste, to to, że (na przykład) obiektyw 50 mm f / 1.4 i obiektyw 100 mm f / 2.8 mają tę samą efektywną średnicę. Jest to szerszy kąt, pod którym promienie świetlne docierają do soczewki 50 mm, co daje mniejszą głębię pola niż soczewka 100 mm, mimo że oba mają dokładnie taką samą średnicę fizyczną.

Z drugiej strony, jeśli zmienisz ogniskową, ale zachowasz tę samą aperturę fotograficzną (f / stop), głębia ostrości również pozostanie stała, ponieważ wraz ze wzrostem ogniskowej średnica rośnie proporcjonalnie, więc promienie światła skupiają się na film / czujnik pod tymi samymi kątami.

Prawdopodobnie warto też zauważyć, że właśnie dlatego (jak sądzę) soczewki katadioptryczne są znane z braku głębi ostrości. W zwykłym obiektywie, nawet jeśli używasz dużej przysłony, część światła wciąż przechodzi przez środkową część obiektywu, więc niewielki procent światła jest ustawiany tak, jakbyś strzelał na mniejszej przysłonie. Jednak w przypadku soczewki katadioptrycznej masz centralną przeszkodę, która blokuje przedostawanie się światła w kierunku środka, więc całe światło dostaje się z zewnętrznych części soczewki. Oznacza to, że całe światło musi być zogniskowane pod względnie płytkim kątem, więc gdy obraz traci ostrość, zasadniczo wszystkie z tego nie razem skupia się (lub znacznie większy procent), zamiast mieć choć trochę tego, co wciąż jest w centrum uwagi.

Nawiasem mówiąc, myślę, że warto zastanowić się, jakim niesamowitym uderzeniem blasku było rozpoczęcie pomiaru średnic obiektywów jako ułamka ogniskowej. Jednym pociągnięciem geniuszu sprawia, że ​​dwa oddzielne (i pozornie niezwiązane) kwestie: kontrola i przewidywalność głębi pola są kontrolowane i przewidywalne. Próba przewidzenia (znacznie mniejszej kontroli) ekspozycji lub głębi ostrości (nie wspominając o obu) przed tą innowacją musiała być ogromnie trudna w porównaniu ...


1
@jrista: To mnie wcale nie zaskakuje. Przy tej samej odległości obiektyw 100 mm będzie miał dwukrotnie większy współczynnik reprodukcji, więc spodziewamy się mniejszej głębi ostrości. Ten sam przysłona f / stop i taki sam współczynnik reprodukcji da tę samą głębię ostrości, więc przy obu wartościach na przysłonie f / 2.8 spodziewamy się takiej samej głębi ostrości, gdy 100 mm jest dwa razy dalej.
Jerry Coffin

1
@Jerry: Wydaje mi się, że wszystkie rzeczy są równe (w oparciu o zaktualizowaną odpowiedź), że spodziewałbym się, że 50 / 1,4 i 100 / 2,8 będą miały taką samą wartość DOF dla wspólnego CoC i odległości od przedmiotu. Biorąc jednak pod uwagę matematykę, trzeba nie tylko zmniejszyć aperturę o połowę na 100 mm, ale także podwoić odległość, aby osiągnąć dokładnie taką samą wartość DOF. Jako takie, twoje wcześniejsze wyjaśnienie dotyczące ogniskowej i apertury jest ... Myślę, że nie jest niedokładne, po prostu brakuje mu specyficzności. To stwierdzenie jest prawdziwe tylko wtedy, gdy założymy, że inna zmienna, odległość, również się zmienia. Jeśli CoC i odległość są ustalone, twoje oświadczenie jest niedokładne.
jrista

1
@Jerry: Tak, związek jest kwadratowy, co, jak sądzę, sprawia, że ​​całość jest nieco sprzeczna z intuicją. Myślę, że łatwiej jest omawiać DoF, gdy zmienia się tylko jeden czynnik na raz, a nie dwa. Dla doświadczonego fotografa związek staje się drugą naturą i wystarczy przelotna myśl, aby wiedzieć, że jeśli chcesz zachować wartość DoF przy zmianie obiektywu, musisz również zmienić odległość. W dyskusji technicznej na temat DoF uważam jednak, że ważne jest, aby jasno określić, jakie czynniki się zmieniają i jak te zmiany wpływają na wynik. ATBE! :)
jrista

1
@Jerry: Myślę, że to prawda. Oznaczałoby to jednak, że znasz współczynniki powiększenia każdego obiektywu przy dowolnej odległości ogniskowania. Niektóre soczewki mają na sobie skalę współczynnika powiększenia, jednak są one dość szorstkie i nieprecyzyjne. O ile nie miałeś poręcznego ściągawki lub aparatu, który obliczył dla ciebie powiększenie, nie jestem pewien, jak przydatne jest zastosowanie współczynnika reprodukcji dla ogniskowej i odległości z praktycznego punktu widzenia. A może brakuje mi czegoś prostego w obliczaniu powiększenia?
jrista

1
@ jrista: Nie sądzę, że to naprawdę oznacza, że ​​musisz znać współczynnik mag dowolnego obiektywu - musisz tylko rozpoznać, że dla danego aparatu, ściślejsze kadrowanie zmniejsza DoF - a zmiana obiektywów tego nie zmieni; tak długo, jak przesuwasz / powiększasz, aby zachować to samo kadrowanie, dostaniesz tę samą głębię ostrości, chyba że zmienisz przysłonę.
Jerry Coffin

7

Istnieją tylko dwa czynniki, które faktycznie wpływają na DOF - apertura i powiększenie - tak odległość przełączania, rozmiar czujnika, ogniskowa, rozmiar wyświetlacza i odległość oglądania wydają się mieć wpływ, ale wszystkie one są tylko zmianami rozmiaru obrazu (obiekt / część, na którą patrzysz) widziane przez oko, które ją ogląda - powiększenie. Kristof Claes streścił to kilka postów wcześniej.

Zobacz poradnik Focal Guide „Obiektywy” jako odniesienie, jeśli w to nie wierzysz.

Każdy magazyn amatorski (teraz ezine) uwielbia mówić „przełącz się na obiektyw szerokokątny, aby uzyskać większą głębię ostrości” ... ale jeśli utrzymasz obiekt tego samego rozmiaru w kadrze (przybliżając się), wtedy ostre fragmenty mają te same ograniczenia. Cofanie się z założonym obiektywem da również więcej głębi ostrości, ale może podoba ci się ujęcie tak, jak zostało już ustawione?

Co będzie zobaczyć są bardziej stopniowe odcięcia w ostrość tak, że tło i pierwszy plan są ostrzejsze (nie ostre , jakby w DOF!) Stąd piękny nieostry tła z długich obiektywów i prawie ostrymi te z szerokimi kątami.


Cześć Derek! Witamy w Stack Exchange i dziękuję za odpowiedź. Czy to książka, do której się odnosisz?
mattdm

Tak, tylko przysłona i powiększenie. Nauczyłem się tego od Herberta Kepplera wiele lat temu.
Mike Sowsun,

1

Co dokładnie określa głębię ostrości na zdjęciu?

  • Czy to tylko własność obiektywu?

  • Czy obiektywy można zaprojektować tak, aby zapewniały większą głębię ostrości dla tej samej apertury i ogniskowej?

  • Czy zmienia się wraz z rozmiarem matrycy aparatu? Czy zmienia się wraz z rozmiarem wydruku? Jak te ostatnie dotyczą?

Zobacz także to pytanie: „ Jak określić akceptowalny krąg pomyłki dla konkretnego zdjęcia? ”.

Poniższa odpowiedź została pierwotnie opublikowana (przeze mnie) jako odpowiedź na bokeh w tle, ale koniecznie wyjaśnia głębię ostrości, z uprzedzeniem do wyjaśniania rozmycia tła i przedniego.

Oryginalna (dłuższa) odpowiedź znajduje się tutaj: https://photo.stackexchange.com/a/96261/37074 - jest to wersja skrócona. Po prostu udzielenie odpowiedzi w jednym zdaniu za pomocą linku powoduje, że odpowiedź jest konwertowana na komentarz do powyższego pytania, z ryzykiem usunięcia, ponieważ jest to komentarz.

Zdefiniujmy kilka rzeczy, zanim przejdziemy do znacznie dłuższego wyjaśnienia.

  • Głębia ostrości : odległość między najbliższymi a najdalszymi obiektami w scenie, które na zdjęciu wydają się akceptowalnie ostre. Chociaż obiektyw może precyzyjnie ustawić ostrość tylko z jednej odległości na raz, zmniejszenie ostrości jest stopniowe po każdej stronie ogniskowanej odległości, tak że w przypadku DOF nieostrość jest niezauważalna w normalnych warunkach oglądania.

  • Tło: Obszar za obiektem obrazu.

  • Pierwszy plan: obszar przed tematem obrazu.

  • Rozmycie : Aby spowodować niedoskonałość widzenia, spowodować niewyraźność lub zamglenie, zaciemnić. Antonim wyostrzenia.

  • Bokeh : Jakość rozmycia nieostrych obszarów obrazu poza głębią ostrości, gdy obiektyw jest prawidłowo ustawiony na obiekcie.

  • Koło pomieszania : w idealnej optyce promieniowanie zakłada się, że promienie zbiegają się do punktu, gdy są idealnie skupione, kształt plamki rozmycia rozmycia z soczewki o okrągłej aperturze jest twardym okręgiem światła. Bardziej ogólne miejsce rozmycia ma miękkie krawędzie z powodu dyfrakcji i aberracji ( Stokseth 1969, paywall ; Merklinger 1992, dostępne ) i może być niekołowe ze względu na kształt apertury.

    Uznając, że prawdziwe soczewki nie skupiają wszystkich promieni idealnie nawet w najlepszych warunkach, pojęcie najmniejszego zamieszania jest często używane w przypadku najmniejszego plamki, jaką może wytworzyć soczewka (Ray 2002, 89), na przykład poprzez wybranie najlepszej pozycji ostrości, która stanowi dobry kompromis między różnymi efektywnymi ogniskowymi różnych stref obiektywu z powodu aberracji sferycznych lub innych.

    Pojęcie kręgu pomieszania stosuje się bardziej ogólnie do wielkości nieostrego punktu, w którym soczewka obrazuje punkt obiektu. Dotyczy to 1. ostrości wzroku, 2. warunków oglądania oraz 3. powiększenia obrazu oryginalnego do obrazu końcowego. W fotografii koło zamieszania (CoC) służy do matematycznego określania głębi ostrości, czyli części obrazu, która jest akceptowalnie ostra.

  • Rozmiar czujnika :

    • Fotografia: W fotografii rozmiar czujnika mierzy się na podstawie szerokości filmu lub obszaru aktywnego czujnika cyfrowego. Nazwa 35 mm pochodzi od całkowitej szerokości filmu 135 , perforowanej folii nabojowej, która była głównym nośnikiem formatu przed wynalezieniem pełnoklatkowej lustrzanki cyfrowej. Termin 135 ma nadal zastosowanie. W fotografii cyfrowej format ten stał się znany jako pełna klatka. Podczas gdy rzeczywisty rozmiar powierzchni użytkowej fotograficznego filmu 35 mm wynosi 24 w × 36h mm, 35 milimetrów odnosi się do wymiaru 24 mm plus otwory koła łańcuchowego (używane do przesuwania filmu).

    • Wideo : Rozmiary czujników wyrażane są w notacjach w calach, ponieważ w czasie popularyzacji cyfrowych czujników obrazu stosowano je zamiast lamp wideo. Typowe 1-calowe okrągłe lampy kamer wideo miały prostokątny obszar światłoczuły o przekątnej około 16 mm, więc czujnik cyfrowy o przekątnej 16 mm był odpowiednikiem 1-calowej tuby wideo. Nazwę 1-calowego czujnika cyfrowego należy dokładniej odczytywać jako „1-calowy odpowiednik tuby kamery wideo”. Deskryptory obecnych rozmiarów czujnika obrazu cyfrowego to rozmiar równoważnika tuby kamery wideo, a nie rzeczywisty rozmiar czujnika. Na przykład Czujnik 1 "ma przekątną 16 mm.

  • Temat: Obiekt, który zamierzasz uchwycić obraz, niekoniecznie wszystko, co pojawia się w ramce, z pewnością nie Photo Bombers , a często nie obiekty pojawiające się na skraju przedniej i tła; dlatego użycie bokeh lub DOF do rozogniskowania obiektów, które nie są przedmiotem.

  • Funkcja przenoszenia modulacji (MTF) lub przestrzenna odpowiedź częstotliwościowa (SFR): Względna odpowiedź amplitudowa systemu obrazowania jako funkcja wejściowej częstotliwości przestrzennej. ISO 12233: 2017 określa metody pomiaru rozdzielczości i współczynnika SFR elektronicznych aparatów fotograficznych. Pary linii na milimetr (lp / mm) były najczęstszą przestrzenną jednostką częstotliwości dla filmu, ale cykle / piksel (C / P) i szerokości linii / wysokość obrazu (LW / PH) są wygodniejsze dla czujników cyfrowych.


Teraz mamy nasze definicje na uboczu ...

Z Wikipedii:

CoC (mm) = odległość oglądania (cm) / pożądana rozdzielczość obrazu końcowego (lp / mm) dla odległości oglądania / powiększenia 25 cm / 25

Na przykład, aby obsługiwać rozdzielczość końcowego obrazu odpowiadającą 5 lp / mm dla odległości oglądania 25 cm, gdy przewidywana odległość oglądania wynosi 50 cm, a przewidywane powiększenie wynosi 8:

CoC = 50/5/8/25 = 0,05 mm

Ponieważ ostateczny rozmiar zdjęcia nie jest zwykle znany w momencie robienia zdjęcia, zwykle przyjmuje się standardowy rozmiar, taki jak szerokość 25 cm, wraz z konwencjonalnym CoC końcowego zdjęcia wynoszącym 0,2 mm, czyli 1/1250 szerokość obrazu. Powszechnie stosowane są również konwencje w zakresie miary przekątnej. DoF obliczona przy użyciu tych konwencji będzie musiała zostać dostosowana, jeśli oryginalny obraz zostanie przycięty przed powiększeniem do ostatecznego rozmiaru obrazu lub jeśli zmieni się rozmiar i założenia oglądania.

Stosując „formułę Zeissa”, koło pomieszania jest czasami obliczane jako d / 1730, gdzie d jest miarą przekątnej oryginalnego obrazu (format kamery). W przypadku pełnoklatkowego formatu 35 mm (24 mm × 36 mm, przekątna 43 mm) wynosi on 0,025 mm. Bardziej rozpowszechnionym CoC jest d / 1500 lub 0,029 mm dla pełnoklatkowego formatu 35 mm, co odpowiada rozdzielczości 5 linii na milimetr na wydruku o przekątnej 30 cm. Wartości 0,030 mm i 0,033 mm są również wspólne dla pełnoklatkowego formatu 35 mm. Dla celów praktycznych, d / 1730, ostateczny obraz CoC wynoszący 0,2 mm id / 1500 dają bardzo podobne wyniki.

Zastosowano również kryteria odnoszące się do CoC do ogniskowej obiektywu. Kodak (1972), 5) zalecił 2 minuty kątowe (kryterium Snellena 30 cykli / stopień dla normalnego widzenia) do krytycznego widzenia, dając CoC ≈ f / 1720, gdzie f jest ogniskową obiektywu. Dla obiektywu 50 mm w pełnoklatkowym formacie 35 mm daje to CoC ≈ 0,0291 mm. Kryterium to najwyraźniej zakładało, że obraz końcowy będzie oglądany z odległości „poprawnej z perspektywy” (tzn. Kąt widzenia będzie taki sam jak na oryginalnym obrazie):

Odległość widzenia = ogniskowa obiektywu × powiększenie

Jednak obrazy rzadko są oglądane z „właściwej” odległości; widz zazwyczaj nie zna ogniskowej obiektywu, a „poprawna” odległość może być niewygodnie krótka lub długa. W związku z tym kryteria oparte na ogniskowej obiektywu zasadniczo ustąpiły miejsca kryteriom (takim jak d / 1500) związanym z formatem aparatu.

Ta wartość COC reprezentuje maksymalną średnicę plamki rozmycia, mierzoną na płaszczyźnie obrazu, która wydaje się być ostra. Punkt o średnicy mniejszej niż ta wartość COC pojawi się jako punkt światła, a zatem na obrazie będzie ostry. Miejsca o większej średnicy będą dla obserwatora rozmyte.

  • Brak symetrii DOF:

DOF nie jest symetryczny. Oznacza to, że obszar akceptowalnej ostrości nie ma tej samej odległości liniowej przed i za płaszczyzną ogniskowania. Wynika to z tego, że światło z bliższych obiektów zbiega się w większej odległości za płaszczyzną obrazu niż odległość, którą światło z dalszych obiektów zbiega przed płaszczyzną obrazu.

Przy stosunkowo niewielkich odległościach DOF jest prawie symetryczny, z około połową pola ostrości istniejącą przed płaszczyzną ostrości, a drugą połową pojawiającą się później. Im dalej płaszczyzna ogniskowa przesuwa się od płaszczyzny obrazu, tym większe przesunięcie symetrii sprzyja obszarowi poza płaszczyzną ogniskowania. Ostatecznie soczewka skupia się w punkcie nieskończoności, a DOF osiąga maksymalną asymetrię, przy czym znaczna większość ogniskowanego obszaru znajduje się poza płaszczyzną ostrości do nieskończoności. Odległość ta znana jest jako „ odległość hiperfokalna ” i prowadzi nas do następnej sekcji.

Odległość hiperfokalna jest definiowana jako odległość, gdy soczewka jest ustawiana na nieskończoność, gdzie obiekty od połowy tej odległości do nieskończoności będą ostrzone dla określonej soczewki. Alternatywnie, odległość hiperfokalna może odnosić się do najbliższej odległości, na jaką można ustawić ostrość dla danego otworu, podczas gdy obiekty w odległości (nieskończoności) pozostaną ostre.

Odległość hiperfokalna jest zmienna i jest funkcją apertury, ogniskowej i wspomnianego wcześniej COC. Im mniejszy jest otwór obiektywu, tym bliżej obiektywu staje się odległość hiperfokalna. Odległość hiperfokalna jest używana w obliczeniach używanych do obliczania DOF.

Z Wikipedii:

Ta witryna SE nie wydaje się obsługiwać Mathjax

Istnieją cztery czynniki, które określają DOF:

  1. Koło zamieszania (COC)
  2. Przysłona obiektywu
  3. Ogniskowa obiektywu
  4. Odległość ostrości (odległość między obiektywem a obiektem)

DOF = Daleki punkt - bliski punkt

DOF, punkt bliski i daleki

DOF po prostu informuje fotografa, w jakich odległościach przed i za odległością ustawiania ostrości wystąpi rozmycie. Nie określa, jak rozmyte lub jaka „jakość” będą te obszary. Konstrukcja obiektywu, konstrukcja przesłony i tło określają cechy rozmycia - jego intensywność, fakturę i jakość.

Im krótsza ogniskowa obiektywu, tym dłuższy jest DOF.

Im dłuższa jest ogniskowa obiektywu, tym krótszy jest DOF.

Jeśli rozmiar czujnika nie pojawia się nigdzie w tych formułach, jak zmienia on DOF?

Istnieje kilka podstępnych sposobów, w jakie rozmiar formatu zakrada się do matematyki DOF:

Enlargement factor

Focal Length

Subject-to-camera / focal distance

Jest to spowodowane współczynnikiem przycięcia i uzyskaną ogniskową oraz koniecznym otworem dla zdolności czujnika do gromadzenia światła, który ma największy wpływ na twoje obliczenia.

Czujnik o wyższej rozdzielczości i soczewka lepszej jakości będą wytwarzać lepszy efekt bokeh, ale nawet czujnik i obiektyw wielkości telefonu komórkowego mogą generować akceptowalny efekt bokeh.

Korzystanie z tej samej ogniskowej obiektywu w aparacie APS-C i pełnej klatce w tej samej odległości między obiektem a aparatem tworzy dwa różne kadry obrazu i powoduje różnice w odległości i grubości DOF (głębokość pola).

Przełączanie obiektywów lub zmiana obiektu na aparat zgodnie ze współczynnikiem kadrowania podczas przełączania między aparatem APS-C i aparatem pełnoklatkowym, aby zachować identyczne kadrowanie, daje podobny DOF. Przesunięcie pozycji w celu utrzymania identycznego kadrowania nieznacznie faworyzuje czujnik pełnoklatkowy (dla większego DOF), tylko przy zmianie obiektywu w celu dopasowania do współczynnika kadrowania i utrzymania kadrowania większy czujnik zyskuje węższy DOF (i niewiele).

Zaleta apertury sprawia, że ​​matryca pełnoklatkowa jest lepszym i droższym wyborem zarówno dla aparatu, jak i obiektywów, a często także dla funkcji (FPS nie jest jednym z nich, nie ma też wielkości i wagi).

Przejście na czujnik średniej wielkości w porównaniu z małym czujnikiem ma przewagę nad większym czujnikiem, ale efekt bokeh prawdopodobnie nie jest najlepszym rozwiązaniem uzasadniającym ponad 20-krotną różnicę ceny.

Większa liczba pikseli na kropkę światła z pewnością zapewni płynniejszy efekt bokeh, ale zbliżyłaby się do niego z małą kamerą z matrycą. Możesz zarobić więcej proporcjonalności za korzystanie z droższego sprzętu, jeśli zarabiasz na swoich zdjęciach lub filmach, w przeciwnym razie odrobina pracy nóg lub dodatkowe tańsze obiektywy pozwolą zaoszczędzić dużo pieniędzy w porównaniu z inwestowaniem w system wielkoformatowy.


Linki koncentrujące się na bokeh, z wyjaśnieniem głębi ostrości:

B&H ma 3 częściowy artykuł na temat DOF: Głębia ostrości, Część I: Podstawy , Część II: Matematyka i Część III: Mity .

Sekcja Wikipedia: Rozmycie pierwszego planu i tła .

Przeczytaj artykuł „ Staging Foregrounds ” autorstwa RJ Kern na temat rozmycia pierwszego planu, który obejmuje wiele zdjęć z rozmyciem tła i pierwszego planu.

Co najważniejsze, „bokeh” to nie tylko „rozmycie tła”, ale wszystkie rozmycie poza DOF; nawet na pierwszym planie . Chodzi o to, że małe światła na odległość są łatwiejsze do oceny jakości bokeh.

Bokeh na pierwszym planie

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.