Powiedzmy, że mam zestaw 5 markerów. Próbuję znaleźć względne odległości między każdym znacznikiem za pomocą środowiska rzeczywistości rozszerzonej, takiego jak ARToolkit . W moim kamerze pierwsze 20 klatek pokazuje tylko pierwsze 2 znaczniki, dzięki czemu mogę opracować transformację między dwoma znacznikami. Drugie 20 ramek pokazuje mi tylko 2 i 3 znaczniki i tak dalej. Ostatnie 20 klatek pokazuje mi 5. i 1. znacznik. Chcę zbudować mapę 3D pozycji znaczników wszystkich 5 znaczników.
Moje pytanie brzmi: wiedząc, że będą odległości z powodu niskiej jakości kanału wideo, jak zminimalizować niedokładności, biorąc pod uwagę wszystkie zebrane informacje?
Moje naiwne podejście polegałoby na użyciu pierwszego znacznika jako punktu bazowego, od pierwszych 20 klatek weźmy średnicę transformacji i umieść drugi znacznik i tak dalej dla trzeciego i czwartego. Dla piątego znacznika umieść go między czwartym a pierwszym, umieszczając go w środku średniej transformacji między piątym a pierwszym i czwartym i piątym. Wydaje mi się, że takie podejście ma tendencję do umieszczania pierwszego znacznika i nie bierze pod uwagę, że kamera widzi więcej niż 2 znaczniki na ramkę.
Ostatecznie chcę, aby mój system mógł opracować mapę x liczby markerów. W każdej klatce może pojawić się do X znaczników i występują błędy niesystemowe z powodu jakości obrazu.
Będziemy wdzięczni za wszelką pomoc dotyczącą prawidłowego podejścia do tego problemu.