Nie sądzę, że ludzie naprawdę „chcą” korzystać tylko z kamer. Gdyby każdy badacz mógł sobie pozwolić na LiDAR, wszyscy włożyliby LiDAR na roboty dla środowiska zewnętrznego.
Kamery są dość tanie, a jedynym ograniczeniem zasięgu jest rozdzielczość w pikselach / superpikselach, którą można przetwarzać w algorytmie / oprogramowaniu.
Większość badaczy (w tym ja) używa strukturalnych kamer świetlnych (chociaż nie działają one na zewnątrz, więc przełączamy się na kamery RGB na tych czujnikach, gdy robot znajduje się na zewnątrz). Rozwiązaniem tego lekkiego problemu jest to, że używamy również kamer stereofonicznych (widzenie stereo / głębokość wielu widoków, co jest drogie obliczeniowo) do z grubsza określania głębokości, w oparciu o możliwości przetwarzania kontrolera / procesora. Innym rozwiązaniem, które jeszcze osobiście zbadałem, jest użycie wielu Kinect / Asus Xtions itp., W których uzyskuje się potwierdzenie głębi, a także wielu kamer RGB na zewnątrz.
LiDAR są zazwyczaj bardzo drogie (w tysiącach $$ za naprawdę dobre). Chociaż może się to zmienić w przyszłości, niektóre firmy będą oferować 250 dolarów „LiDAR”, takich jak Sweep .
Ponadto LRF / LiDAR mają ograniczony zasięg i rozdzielczość (tj. Poza pewną odległością nie mogą jednoznacznie rozpoznać głębokości, a zatem zwracają wartości 0 (nie jestem pewien, co do LiDAR, ale kamery głębinowe mają maksimum (powyżej którego) jako a także minimalny zasięg (poniżej którego) nie dają ci głębi).
Mam nadzieję że to pomoże.