Próbuję użyć kamery stereo do rekonstrukcji sceny, ale zwykle mogę uzyskać tylko rzadkie chmury punktów (tj. Ponad połowa obrazu nie ma żadnych właściwych informacji o głębokości).
Zdaję sobie sprawę, że algorytmy przetwarzania stereo polegają na obecności tekstury na obrazach i mają kilka parametrów, które można dostosować, aby uzyskać lepsze wyniki, takie jak zakres rozbieżności lub rozmiar okna korelacji. Chociaż dostrajam te parametry, nigdy nie jestem w stanie uzyskać wyników, które są nawet zdalnie zbliżone do tego, co można uzyskać za pomocą aktywnego czujnika, takiego jak Kinect.
Powodem, dla którego tego chcę, jest to, że bardzo często chmury punktów odpowiadające sąsiednim regionom nie pokrywają się wystarczająco, aby uzyskać dopasowanie, więc rekonstrukcja jest poważnie ograniczona.
Moje pytanie do ekspertów Computer Vision brzmi następująco: co mogę zrobić, aby uzyskać ogólnie gęstsze chmury punktów (bez arbitralnej modyfikacji środowiska mojego biura)?