Powiedziałbym, że wcale nie jest bez znaczenia. Jest to zarówno problem zasobów sprzętowych, jak i wyzwanie programistyczne.
Przez większość czasu nie można podzielić klatek między dwoje oczu; jeśli gra zazwyczaj działa przy 60 klatkach na sekundę , musisz uruchomić przy 120 klatkach na sekundę, aby uzyskać ten sam komfort wizualny.
Jednak wiele rzeczy można zrobić tylko raz na parę stereo: eliminacja frustum - kosztem nieco większego frustum (patrz Konfigurowanie kamer 3D w celu optymalizacji stereoskopowych gier 3D na PlayStation® ), eliminacja okluzji, wierzchołek i indeksuje tablice, przechwytuje sceny i renderuje do tekstury ...
Części sceny mogą być renderowane tylko raz: na przykład złożone niebo z chmurami, gwiazdami itp. Będzie zwykle w nieskończoności, więc koszt modułu cieniującego piksele jest potrzebny tylko raz, a drugie renderowanie może być zwykłym przeglądaniem tekstury w pierwszy cel renderowania. W rzeczywistości niektóre gry stereo używają metody zwanej reprojection, która opiera się na tym podejściu, aby uczynić ją wykonalną dla całej sceny: zobacz ten wątek w beyond3d, aby uzyskać wskazówki na temat tej techniki.
Aby poradzić sobie z wymaganą dodatkową mocą obliczeniową, możesz zmniejszyć rozdzielczość. Z mojego osobistego doświadczenia wynika, że jest to o wiele bardziej do zaakceptowania niż zmniejszanie liczby klatek na sekundę. Nie próbuj jednak wyłączać wygładzania: jak mówią inżynierowie Sony w powyższym artykule, renderowanie do buforów o niższej rozdzielczości z AA wygląda lepiej niż bufory o wysokiej rozdzielczości bez AA .
Pamiętaj, że istnieją inne podejścia do stereowizji w grach, które nie wymagają telewizora 3D, takich jak Trioviz . Nie mogę jednak tutaj omawiać szczegółów (problemy NDA).