Zastanawiałem się przez chwilę i szukałem odpowiedzi w Google, ale bezskutecznie.
Jeśli wszystkie tekstury są 8-bitowymi obrazami LDR, takimi jak JPEG, nie może to potencjalnie powodować konfliktów z kontrolą ekspozycji / mapowaniem tonów podczas renderowania. To znaczy, jeśli dostosujesz ekspozycję renderowania obrazu, która powinna pokazywać szczegóły w teksturach, których tak naprawdę nie ma, ponieważ zostały one ograniczone przez niski zakres dynamiczny. Czy nie ma więc sensu umieszczanie tekstur jako obrazów HDR, zapisanych jako .exr, w liniowej przestrzeni kolorów z 16-bitowym półpływakiem, aby uzyskać dobrą reprezentację kolorów (32-bitowy „pełny” float może być przesadny?). Wydaje mi się, że aby mieć bardziej szczegółowe i prawidłowe wartości kolorów, mam wpływ na GI i sposób obliczania spadania koloru?
A może po prostu nie jest to konieczne, ponieważ końcowy efekt renderowania, który chcemy, prawdopodobnie będzie podobny do poziomu ekspozycji tekstury, gdy zostanie ona w jakikolwiek sposób sfotografowana? A ponieważ aparat najczęściej fotografuje w 12-14 bitach, musiałbyś wykonać wiele ekspozycji tekstury i wykonać całą tę dodatkową pracę, aby połączyć je wszystkie w jeden HDRI.
Edycja: Aby to wyjaśnić, najbardziej interesuje mnie to z punktu widzenia realistycznego renderowania zdjęć, z rendererami śladów promieni (takich jak mental ray, V-Ray, Arnold itp.) Z pełnymi symulacjami światła i globalnym oświetleniem, a nie dla silniki do gier w czasie rzeczywistym.