Mam skalibrowaną kamerę i posiadam wewnętrzne parametry. Mam również parametry zewnętrzne względem punktu (pochodzenie świata) na płaskiej powierzchni w świecie rzeczywistym. Ten punkt ustawiłem jako początek współrzędnych świata rzeczywistego [0,0,0] z normalną równą [0,0,1].
Na podstawie tych parametrów zewnętrznych mogę obliczyć pozycję i obrót kamery we współrzędnych 3d płaszczyzny świata, używając tego tutaj: http://en.wikipedia.org/wiki/Camera_resectioning
Teraz mam drugi punkt, w którym wyodrębniłem współrzędne obrazu dla [x, y]. Jak teraz uzyskać pozycję 3D tego punktu w światowym układzie współrzędnych?
Myślę, że intuicja polega na tym, że muszę prześledzić promień, który przechodzi od optycznego środka kamery (dla której mam teraz pozycję 3D, jak opisano powyżej), przez płaszczyznę obrazu [x, y] kamery, a następnie przez mój samolot z prawdziwego świata, który zdefiniowałem na górze.
Teraz mogę przeciąć promień 3d współrzędnej świata z płaszczyzną, którą znam normalnie, i wskazać na tej płaszczyźnie. Nie rozumiem, jak ustalam pozycję i kierunek 3D, kiedy opuszcza płaszczyznę obrazu przez piksel. To dezorientacja mnie przez różne układy współrzędnych.