Jestem ciekawy, jakie są najlepsze praktyki w branży tworzenia gier, aby renderować wszechświat 3d?
Być bardziej specyficznym:
- Punkty danych są podane i statyczne. Każdy punkt ma pozycję, kolor i rozmiar;
- Cały zestaw danych jest znacznie większy niż dostępna pamięć;
- Użytkownik powinien mieć możliwość „pomniejszenia”, aby zobaczyć większy obraz naraz;
Najbardziej naiwnym podejściem byłoby podzielenie wszechświata na kostki i renderowanie tylko tego, co jest widoczne. Nie jestem pewien, jak w tym scenariuszu powinienem zastosować „oddalenie”. Czy powinienem wstępnie obliczyć kostki dla każdego możliwego poziomu powiększenia? A może istnieją lepsze podejścia?
Szukam rozwiązania agnostycznego technologii.
infinite universe
może być podobne do śledzenia relacji między dwoma punktami na niektórych krzywych Mandelbrota po powiększeniu do różnych poziomów. Na pewnym poziomie możesz stracić precyzję i nie będziesz w stanie ich rozróżnić ani nawet zlokalizować ponownie.