Przede wszystkim wyobrażam sobie, że zależy to od shaderów. Na przykład silnik Unreal będzie miał pewną metodę obsługi HDR, pewną metodę mapowania nierówności, pewną metodę rozpraszania światła itp.
Będą również miały jednolity poziom przejrzystości pod względem ograniczeń, takich jak rozmiary tekstur i obsługa kolorów.
Dodatkowo algorytmy będą podobne. Obiekty będą sprzedawane przy użyciu tych samych algorytmów. AI podejmie decyzje zgodnie z tymi samymi architekturami decyzyjnymi.
Jeśli mapowanie nierówności powoduje na przykład szalone odbicie i silnie reaguje na przykład na zmiany oświetlenia, natychmiast zaczynasz myśleć o silniku Doom 3. Jest tak, ponieważ ten kod modułu cieniującego jest współużytkowany przez każdą grę korzystającą z silnika. Nie chciałbyś rozerwać czegoś takiego.
„Wszystkie silniki gier korzystają z tej samej technologii renderowania 3D, z której wszyscy korzystamy”
Technologia jest taka sama, ale zasady rządzące tym, jak naprawdę wygląda świat (np. Oświetlenie, teselacja, LOD itp.) Są napisane przez dewelopera. Technologia renderowania 3D nie ma tak wiele wspólnego z jakością wizualną rzeczy na ekranie. Nawet zasady stosowania płaskiego oświetlenia otoczenia są pozostawione programistom (zakładając, że nie używasz rurociągów o stałej funkcji).
Możesz sprawić, że Twoja aplikacja OpenGL będzie wyglądać podobnie jak aplikacja DirectX, często z niewielkimi trudnościami. Podstawowa technologia renderowania nie ma tak dużego wpływu, z wyjątkiem szybkości.