Przyglądałem się algorytmom wykrywania markerów do zastosowania z aplikacją opartą na kinektach, a większość pracy, jaką udało mi się znaleźć, koncentruje się oczywiście na wykrywaniu cech na „normalnych” obrazach.
Jednak sprzęt kinect zapewnia (zasadniczo po dostosowaniu) 11-bitową głębokość na piksel.
Ten obraz głębokości zawiera również różne artefakty wizualne z cieni rzucanych wokół krawędzi obiektów (patrz na przykład mocna czarna ramka w tym filmie http://www.youtube.com/watch?v=-q8rRk8Iqww&feature=related ).
Podczas gdy niektóre tradycyjne techniki widzenia maszynowego (np. Wykrywanie krawędzi) działają dobrze, inne nie, i wydaje się, że w sieci jest niewiele informacji na ten temat.
Jako prosty przykład użycie wartości głębokości sprawia, że wykrycie orientacji bloku znacznika po jego zlokalizowaniu jest banalne.
Czy ktoś widział jakieś dyskusje / dokumenty / itp. Dotyczące przetwarzania obrazu głębi w celu wykrycia funkcji?
Czy ktoś może polecić dobry algorytm do wykrywania znaczników „głębokości” (efektywnie bloków origami zamiast drukowanych znaczników czarno-białych)?
Do tej pory robiłem eksperymenty adhoc przy użyciu opencv do przetwarzania obrazów, ale nie jest to wystarczająco stabilne ani wystarczająco szybkie.
Jeśli łączysz się z komercyjnym produktem do widzenia maszynowego bez jakiejś próby, w odpowiedzi podaj, dlaczego uważasz, że jest to właściwe.