Jak uchwycić scenę dokładnie tak, jak widzą to moje oczy?


30

Jakie ustawienia mojej lustrzanki cyfrowej będą naśladować scenę dokładnie tak, jak widzę gołym okiem?

Myślę, że nie można uzyskać kontrastu i kolorów dokładnie tak, jak widzą moje oczy, i może to być różne dla różnych osób. Bardziej interesuje mnie ogniskowa obiektywu. Jeśli ktokolwiek może dać więcej wglądu poza ogniskową, chętnie się dowiem.

Na przykład, jeśli stoję na brzegu morza i chcę uchwycić wschód słońca, jaka powinna być ogniskowa, bym mógł zakryć kąt widzenia, który widzą moje oczy, a więc rozmiar obiektów na zdjęciu będzie wynosić dokładnie tak, jak postrzegają to moje oczy?

Mój aparat to Canon EOS 1000D APS-C. Mam 50 mm 1.8 i 70-300 mm Sigma, czy można to osiągnąć za pomocą tego obiektywu? Do tej pory nie osiągnąłem ani nie byłem zadowolony z tego, co widzę i co otrzymuję.


Czy masz pełną klatkę (FX) kadru (DX, 1.6x) DSLR?
Philippe Lavoie

na pewno zmienię moje pytanie, zapomniałem o tym czynniku. Mam canon eos 1000D, który nie jest pełną klatką. współczynnik uprawy 1,6x
sob.

1
Co z mediami, które mają dostarczać obraz do oczu innych? Duży albo mały? Ekran czy papier? ...
mouviciel

Ciekawe - stało się to bardziej ogólną formą photo.stackexchange.com/questions/8043/... w tym sensie, że mózgi naszych widzów odgrywają ogromną rolę w postrzeganiu zdjęć. Świetne odpowiedzi tutaj.
D. Lambert

1
@mouviviel - Media mają być dostarczane do moich oczu po zrobieniu zdjęcia, Informacje, Ekran i papier. Jeśli ekran jest odpowiednio skalibrowany, myślę, że możemy spodziewać się prawie tego samego na ekranie w Papier, Zasadniczo Ekran i papier zarówno: D
sob.

Odpowiedzi:


38

Cóż, nie chcę ci tego łamać, ale nie możesz dokładnie naśladować swoich oczu. Jest kilka powodów, pozwól mi wyjaśnić.

  1. Ludzie widzą znacznie wyższą rozdzielczość w środkowej fovii (środkowej części naszych oczu) niż w pobliżu krawędzi. Kamery mają wszędzie jednakową rozdzielczość.
  2. Zakres dynamiczny jest różnie obsługiwany przez kamery i ludzi. Nie potrafię tego wyjaśnić, ale scena wydaje się mieć większy zakres dynamiki dla człowieka niż kamera, chociaż technicznie kamera ma większy zakres dynamiki.
  3. Ludzie widzą w 3 wymiarach.
  4. Ludzie bardzo szybko zmieniają swoje ogniska, do tego stopnia, że ​​w rzeczywistości nie zauważamy nieostrych fragmentów większości scen.
  5. Kształt ludzkiej wizji różni się bardzo od fotografii. Fotografie wychodzą zwykle prostokątnie, z pewnym wymiarem, widzenie człowieka ma bardziej zakrzywiony kształt, chociaż trudno jest określić ilościowo przez sposób, w jaki nasz mózg zarządza sygnałami.

Niezależnie od tego wszystkiego, powiem tylko, że zależy to od tego, czy chcesz skupić się na określonym obszarze, czy na większej scenie wokół. Jeśli chcesz mieć konkretny obszar, prawdopodobnie powinieneś mieć około 150 mm. Jeśli chodzi o dramatyczny krajobraz, coś więcej niż 24 da ci całe pole widzenia. Często podawana liczba to 50 mm, co pozwala zobaczyć część oczu o wyższej rozdzielczości, a następnie niektóre, ale nie całe pole, i zwykle jest dobrym kompromisem. (Wszystkie te zakładają, że masz aparat w pełnej ramce, jeśli twój jest czujnikiem przycięcia, podziel przez odpowiedni współczynnik)


Ok, nie byłem zadowolony z tej sytuacji, kiedy zrobiłem zdjęcie wschodu słońca używając 50 mm 1.8, rozmiar słońca był znacznie mniejszy na zdjęciu w porównaniu do tego, co widziałem w rzeczywistości, więc myślę, że będę musiał dostosować moją ogniskową dookoła 90-100 mm, aby uzyskać odpowiedni rozmiar. Dziękuję Ci.
sob.

1
Jak powiedziałem, oko ma różne regiony wrażliwości. Trochę szkoda, że ​​tak naprawdę nie można uzyskać FOV i percepcji, to naprawdę niesamowite, co mogą zrobić nasze oczy i umysł, więc ...
PearsonArtPhoto

1
zapomniałeś jeden: ludzkie oko (-a) ma inne pole widzenia niż obraz generowany przez większość kamer (mogą istnieć wysoce wyspecjalizowane kamery). Nie widzimy w formacie 4/3 lub 2/3.
jwenting

Również obraz, który „widzisz” w mózgu, jest zasadniczo przeglądany przez stos 1000 filtrów, postprocesorów i przyzwoitą sesję photoshopa.
Hobbamok

36

Oko się porusza

Chciałbym dodać do odpowiedzi @Pearsonartphoto, że ludzkie oczy nie widzą nieruchomej sceny, zamiast tego skanują ją w sposób ciągły, dostosowując swoją „przysłonę” i ponownie ustawiając ostrość podczas skanowania. Dzięki temu procesowi skanowania możemy dostrzec :

  • wyższy zakres dynamiczny,
  • nieskończona głębia ostrości,
  • szersza scena jako całość,
  • znacznie więcej szczegółów niż widzi „rozdzielczość” nieruchomego oka.

To, co „widzimy”, jest wynikiem „przetwarzania końcowego” strumienia obrazów, 30–70 obrazów na sekundę. Zobacz ruch gałek ocznych .

Aparat jest nieruchomy

Aparat nie może symulować tego, co widzi oko, ponieważ duża część tego, co widzi oko, to nasz proces widzenia i myślenia o scenie, a wiele z nich dzieje się w mózgu, a nie tylko w oku.

Możesz jednak robić zdjęcia, które wywołują określone, pożądane wrażenie u osoby, która je widzi. I tu zaczyna się sztuka , ponieważ musisz wywołać u innych pewne uczucia za pomocą płaskiego przedmiotu.

Wiele technik obrazowania

PS Niektóre popularne techniki fotografii cyfrowej próbują odzyskać więcej z wielu kolejnych zdjęć, tak jak robi to ludzka wizja. Te techniki obejmują:

  • szycie panoramiczne (mozaikowanie wielu zdjęć w celu uzyskania szerszego kąta widzenia i zwiększenia rozdzielczości),
  • techniki łączenia ekspozycji i HDR (układanie wielu obrazów w celu zwiększenia zakresu dynamicznego),
  • ustawianie ostrości (układanie wielu obrazów w celu zwiększenia głębi ostrości) (więcej) .

Podsumowałeś to dobrze, jak dotąd najlepsza odpowiedź.
labnut

27

Przechwytujesz obraz dokładnie tak, jak go widzą twoje oczy? Nie ma problemu, ale to nie wszystko w aparacie, będziesz musiał popracować trochę pocztą. I prawie na pewno nie to, czego naprawdę chcesz.

Po pierwsze, potrzebujesz okrągłego obiektywu typu „rybie oko”, który źle winietuje do robienia zdjęć. (W rzeczywistości potrzebujesz kilku zdjęć i systemu oglądania z wbudowanym śledzeniem oka, które może odwracać obrazy podczas ruchu oka.) Nikt nie produkuje obiektywu, który działa tak źle, jak ludzkie oko (przynajmniej nikt nie robi takiego takiego celowo i oferuje go w sprzedaży jako obiektyw fotograficzny), więc reszta będzie musiała się odbyć pocztą.

Najpierw musisz odciąć obraz u góry. Dokładnie, gdzie się to zmieni, ale tam broda przeszkadza. Następnie musisz uruchomić wyszukiwarkę krawędzi - w Photoshopie filtr reliefowy Sketch-> Bas działa dobrze. Umieść wynik tego na osobnym zestawie warstw do pomnożenia - scalisz go później, ale na razie możesz ukryć warstwę.

Następnie wybierz sekcję na środku obrazu - około jednego lub dwóch procent całego obrazu - wtłocz zaznaczenie o dwadzieścia lub trzydzieści pikseli, a następnie skopiuj zaznaczenie do osobnej warstwy.

Teraz uruchom intensywny filtr rozmycia na oryginalnym obrazie. Chcesz widzieć kolory, ale bez prawdziwych szczegółów. Połącz warstwę płaskorzeźby z zamazanym obrazem. Następnie scal warstwę utworzoną z zaznaczenia. Powinieneś teraz mieć okrągły obraz z obciętą górną krawędzią, źle zdefiniowanymi krawędziami, bez realnych szczegółów obrazu na większości obrazu, ale z krawędziami oryginalnych elementów wołających o uwagę i małym obszarem pośrodku (około dziesięć procent szerokości i wysokości) w stosunkowo ostrym ognisku.

Jeszcze nie skończyłeś. Musisz utworzyć okrągły wybór o wielkości około połowy obszaru, który jest ostry, tuż poniżej i z jednej strony, i lekko nakładać się na obszar ostrości. Zrób dobrze zaznaczenie, a następnie wypełnij je kolorem czarnym.

Utwórz nową warstwę nakładki, wypełnij ją 50% szarością i dodaj około dziesięć procent monochromatycznych szumów gaussowskich, aby zapewnić dobre rozmycie. Połącz to.

Masz teraz obraz, który jest przybliżony do tego, co faktycznie widzisz, z ustalonym okiem. W rzeczywistości jest znacznie mniej zniekształcony niż to, co widzi twoje oko, ale dodanie wszystkich małych zwojów, które mają miejsce z powodu różnej grubości płynów na powierzchni oka w danym momencie, jest dużym problemem dla tego ćwiczenia .

Wszystko, co myślisz, że widzisz, pochodzi z twojego mózgu, a nie z oka. Ta czarna plama? Masz po jednym w każdym oku, a twój mózg uzupełnia brakujące dane. Ogromne morze szczegółów? Panoramiczne szwy w korze wzrokowej. Jakaś ostrość? Uśrednianie wielu „ekspozycji”. Mamy również automatyczny system apertury i „przesuwamy ISO” w locie, w zależności od tego, na co zwracamy uwagę w danym momencie (nasz statyczny zakres dynamiki nie różni się zbytnio od tego, co rejestruje aparat - wykonujemy HDR ” w poście ”).

Prawdopodobnie chcesz uchwycić to, co widzi twój umysł, a nie to, co widzą twoje oczy, i to jest inne dla każdego zdjęcia. Dlatego robią te wszystkie różne obiektywy. Czasami chcesz pokazać rozległą panoramę, ponieważ to właśnie widziałeś . Ale nawet przy ogromnym krajobrazie może to być tylko niewielki zagajnik drzew, który przykuł twoją uwagę. Portret może być ciasnym zbliżeniem lub może obejmować całe otoczenie osoby siedzącej - znowu wszystko zależy od tego, co zobaczyłeś okiem umysłu, a nie od tego, co zobaczyłeś okiem. To samo dotyczy głębi ostrości - czy patrzyłeś na całą scenę, czy tylko zwracałeś uwagę na jeden mały szczegół w szerszym kontekście?

Innymi słowy, na to pytanie nie można odpowiedzieć bezpośrednio. Odpowiedź brzmi i zawsze będzie „to zależy”. Eksperyment. Ćwiczyć. Poznaj swoje narzędzia i ich działanie, a ostatecznie będziesz wiedział dokładnie, co musisz zrobić, aby uchwycić nie to, co faktycznie było, ale to , co widziałeś. Ansel Adams nazwał to prognozowaniem i poświęcił wiele czasu na opracowanie formalnego systemu, który pozwoliłby mu uchwycić na filmie to, co zobaczył swoim umysłem i sercem, a nie oczami.


4
Choć może zaczyna się to od małego przerzucenia, okazuje się, że jest to piękna i cudowna odpowiedź. Sława.
Lindes

1
Wow, zgubiłem się czytając rzeczy z Photoshopa, a na koniec była to dobra rada :) TY.
sob.

2
Co, żadnych pływaków ?!
junkyardsparkle

Proces Photoshop jest doskonałym opisem tego, co złej jakości obraz widzi oko, naprawionym na miejscu. Ale to nie jest ustalone, a mózg zszywa to wszystko razem.
doug

10

Jednym z problemów z próbą naśladowania ludzkiego wzroku na zdjęciu jest pole widzenia .

Perspektywa, którą widzimy, która jest funkcją względnej długości ogniskowej, jest według większości rachunków z grubsza perspektywą obiektywu 50 mm na matrycy pełnoklatkowej lub 32 mm na matrycy DX, ale wtedy problemem nie jest perspektywa, to pole widzenia. Pomyśl o zdjęciu, które widzisz z odległości 50 mm, a teraz rozszerz pole widzenia, tak jak w przypadku panoramy.

Jeśli zrobisz zdjęcie „ludzkie”, zobaczysz prawie 180 stopni w poziomie i około 120 stopni w pionie, ale nadal utrzymasz perspektywę średniej ogniskowej.

Weź ten prymitywny schemat oka (zielony) i cyfrowy czujnik lustrzanki (niebieski). Zauważysz, że ogniskowa jest dokładnie taka sama dla obu mediów, w przybliżeniu 17 mm, ale kąt, na który rozciąga się siatkówka, jest znacznie większy niż dla czujnika.

Pole widzenia

Widzi większe pole widzenia o tej samej ogniskowej. Dlatego czujnik DX odpowiada polu widzenia 1,6 razy mniejszemu niż pole widzenia czujnika 35 mm, ale przy tej samej ogniskowej perspektywa się nie zmienia. Po prostu rejestruje mniejszy obszar sceny.

Panoramy to sposób naśladowania pola widzenia ludzkiego oka, przy jednoczesnym zachowaniu bardziej płaskiej i bardziej realistycznej perspektywy.


Kolejnym zagadnieniem jest zakres dynamiczny . Średni zakres dynamiki cyfrowych czujników wielkości lustrzanek to około 11 stopni światła. Oznacza to, że może zarejestrować różnicę między 11 podwojeniami natężenia światła. 1, 2, 4, 8, 16, 32 itd. Jak trafna jest inna historia. 14-bitowy jest lepszy niż 12, a 12 jest lepszy niż 8 bitów, ale analogowy jest nawet lepszy niż 14-bitowy cyfrowy.

Podczas gdy profesjonalne nadwozie o pełnej klatce, które jest w stanie wykonać do 13 przystanków w ciągu doby i jest uważane za imponujące według współczesnych standardów, nie zbliża się nawet do ludzkiego oka.

Ludzkie oko czasami potrafi odróżnić z grubsza od 18 do 20 stopni intensywności w bardzo prymitywnym pomiarze. Oznacza to, że czarny cień, który widzi twój aparat, może być dość dobrze widoczny przez ludzkie oko, jednocześnie widząc jasne szczegóły w scenie . W tym momencie spada zakres dynamiczny czujnika cyfrowego.

Po prostu nie może jednocześnie odróżnić tak bardzo różnych intensywności światła. Czasami jest tak źle, że mają albo narazić na światła lub narazić na cienie i ssać go, nawet gdy własne oczy można zobaczyć zarówno grzywny.

HDR jest sposobem emulacji zakresu dynamicznego ludzkiego oka, ale nadal jest ograniczony przez media, na których jest oglądany, a także przez sposób przetwarzania.


Inną kwestią jest to, że chociaż jest to dla nas spacer po parku, ponieważ nasze mózgi są zaprojektowane tak, aby widzieć to w ten sposób, tylko fovea widzi bardzo szczegółowo. Widzenie peryferyjne jest raczej nieokreślone i ma przede wszystkim widzieć ruch, który może nam pomóc zidentyfikować, że dzieje się wokół nas, lub ostrzec nas przed niebezpieczeństwem i uruchomić reakcję walki lub ucieczki.

Jeśli miałbyś to zasymulować na zdjęciu, obraz miałby małe pole ostrości na środku, a obraz szybko stawałby się rozmyty podczas przesuwania się w kierunku krawędzi.


Są inne kwestie, o których albo nie wspomniałem, albo nie wiem o sobie, ale myślę, że pod koniec dnia fotografia nie jest tak naprawdę przeznaczona do „naśladowania” ludzkich doświadczeń, ma uchwycić chwilę, stwórz odpowiedź lub emocję, albo przechwytuj wspomnienia, albo otrzymaj dużą wypłatę od klienta :)


Masz na myśli, że soczewki dla dzieci dają lepszy efekt lub mówią prawdziwy efekt na to, co widzimy? ponieważ skupi się w jednym punkcie, a inne rzeczy będą rozmyte?
sob.

Co masz na myśli?
Nick Bedford

1
Tak przypuszczam. Chyba prawdziwe pytanie brzmi, czy powinieneś to zrobić, czy nie. Czysta symulacja oznaczałaby rozmycie zewnętrznego obszaru zdjęcia, ale jeśli zdołasz wysadzić ostateczne zdjęcie w celu dopasowania do twojej wizji, wtedy ... twoja wizja przyjmie rozmycie, jeśli wiesz, co mam na myśli.
Nick Bedford,

dobrze. Następnym razem eksperymentuję :)
sob

0

Twój mózg może dostosować się do sygnałów pochodzących z komórek wykrywających światło w twoim oku, dzięki czemu możesz mieć większy zakres dynamiki z oczu niż jest to możliwe z komórek aparatu. Dopóki nie pojawią się inteligentne czujniki kamery, które mogą wyłączyć jeden, który ma wystarczająco dużo światła, będziesz walczył o uzyskanie potrzebnego zakresu.

Sugerowałbym zrobienie HDR sceny, ale tylko nieznaczne przesunięcie niedoświetlenia i prześwietlenia, aby wyglądało to naturalnie.


Cóż, istnieje priorytet podświetlenia (jak to nazywa Canon; prawdopodobnie istnieje również pod różnymi nazwami dla różnych marek), ale nie jest to dokładnie to, o czym tu mówisz. Chciałbym czujnik, który w jakiś sposób ma logarytmiczną krzywą reakcji na stronę fotograficzną po dostaniu się do określonej ekspozycji ...
Lindes

0

Cóż, dlaczego nie po prostu założyć obiektyw 70–200 mm i powiększyć obraz, dopóki obraz na ekranie LCD nie będzie miał takiego samego rozmiaru jak widok oka bez aparatu. Obiektyw odczyta wtedy, na jakiej ogniskowej jesteś. Lub po prostu użyj wizjera. Dokładnie przestudiuj rzeczywisty widok, widok LCD i widok Wizjera, ale potrzebujesz statywu i co najmniej 10 minut. Może się okazać, że Twój zestaw przoduje tylko na określonych odległościach. 3 widoki są odpowiednio dopasowane. W tym momencie możesz rozważyć zakup soczewki. Kolejną rzeczą po dopasowaniu skali będzie dopasowanie tonalne do twojego oka. Aparaty generalnie widzą cień. Dobrym pomysłem wydaje się dodanie neutralnego filtra zaciemniającego i dodanie kilku przystanków, aby zrekompensować cel, jakim jest rozjaśnienie cieni przy jednoczesnym zachowaniu jasności rozjaśnionych obszarów. Może to spowodować, że najważniejsze informacje nie będą tak „wysadzone” podczas gdy cienie są całkowicie czarne, jeśli ekspozycja została po prostu zwiększona. Ważny wydaje się też filtr UV. Następnie można dostosować funkcje przetwarzania w aparacie, aby dostosować i ustawić te ustawienia jako domyślne. Wspominam tutaj, co bym spróbował. Mam nadzieję że to pomoże.


Główny problem z tym polega na tym, że o tym, jak wygląda obraz, decyduje znacznie więcej niż tylko ogniskowa i kolor, w tym odległość oglądania, media i warunki oglądania. Jak wspomniano w kilku odpowiedziach, aparat nie może odtworzyć tego, co widzi oko.
przeklęte prawdy,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.