(Meta: Nie znam odpowiedniego miejsca na Stack Exchange. Wydaje się, że nie ma żadnych grup związanych z technologią autonomicznej jazdy i komputerowymi systemami wizyjnymi / postrzegania 3D.)
W przypadku pojazdów samobieżnych korzystających z LIDAR 3D na percepcji głębokości na autostradzie z setkami innych pojazdów, także wykorzystujących różne inne skanery emisyjne LIDAR lub skanery emisji w polu punktowym (w stylu kinect), w jaki sposób jest w stanie odróżnić własne sygnały zwrotne od skanowania zrobione przez inne systemy?
W przypadku wyjątkowo dużej wielopasmowej autostrady lub złożonych skrzyżowań wielopłaszczyznowych takie emisje można zobaczyć we wszystkich kierunkach, pokrywając wszystkie powierzchnie, i nie ma sposobu, aby uniknąć wykrycia emisji wiązki z innych skanerów.
Wydaje się, że jest to główna przeszkoda techniczna we wdrażaniu LIDAR dla autonomicznych pojazdów. Nie ma znaczenia, czy działa idealnie, jeśli jest to jedyny pojazd na drodze korzystający z LIDAR.
Prawdziwe pytanie dotyczy tego, jak radzi sobie z zalewaniem fałszywymi sygnałami z podobnych systemów w przyszłym scenariuszu, w którym LIDAR jest obecny na każdym pojeździe, potencjalnie z wieloma skanerami na pojazd i skanowaniem we wszystkich kierunkach wokół każdego pojazdu.
Czy jest w stanie normalnie funkcjonować, czy może w jakiś sposób odróżnić własne skanowanie i odrzucić inne, lub w najgorszym przypadku może całkowicie zawieść i po prostu zgłosić niepotrzebne dane śmieciowe i nie wie, że zgłasza dane śmieciowe?
To przynajmniej wydaje się mocnym argumentem za pasywnym obrazem komputerowym 3D, opartym tylko na integracji światła naturalnego i głębokości kamery stereo, tak jak dzieje się to w ludzkim mózgu.