Jaki sens ma uśrednianie próbek (lat, lon) w celu zwiększenia dokładności 2D lokalizacji GPS?


23

Kilka aplikacji GPS, takich jak ta lub ta , pobiera wiele (lat, lon) próbek z danej lokalizacji, zakładając, że jednostka GPS się nie porusza, a następnie pobiera średnią z próbek w celu obliczenia „bardziej precyzyjnego” „Lokalizacja 2D.

(Nie dbamy tutaj o pozycję wysokości / wysokości!)

Druga aplikacja ( Uśrednianie GPS ) wykorzystuje wartość dokładności powiązaną z każdą próbką jako wagę dla bieżącej lokalizacji, a następnie odpowiednio oblicza średnią ważoną. Zapewnia również oszacowanie dokładności uśrednionej lokalizacji.

Pytania:

1) Podczas gdy zdrowy rozsądek skłania nas do przekonania, że ​​uśrednianie powinno prowadzić do zwiększenia dokładności, jaki sens ma to w przypadku urządzeń przenośnych, takich jak telefony (tj. Proste urządzenia, które nie używają różnicowego GPS)?

2) Czy zaleciłbyś inną metodę niż metoda GPS Averaging do obliczenia średniej lokalizacji?

3) Jak obliczyć oszacowanie dokładności uśrednionej lokalizacji?

4) Czy istnieje sposób inny niż uśrednianie w celu uzyskania lepszego pozycjonowania 2D poprzez uzyskanie wielu (lat, lon) próbek z danej lokalizacji?


AKTUALIZACJA 1: wyniki mojego wstępnego badania z 2 podręcznymi urządzeniami GPS (modele Sony ST15i i ST17i), które uzyskały poprawki dokładności 3m w tej samej pozycji przez 4,5 godziny, dały następujące dane:

Wyniki ST15i Wyniki ST17i

=> Warto zauważyć, że chociaż domniemana dokładność poprawek wynosiła 3 metry, model ST17i miał wiele punktów dalej niż 3 metry od mediany / średniej.

=> Niezwykły jest również dryf monotoniczny długości geograficznej w modelu ST15i.

(Zauważ, że ST15i wydaje się mieć czułszą antenę niż ST17i, ponieważ mogłem przeanalizować, że użył średnio o 3 więcej satelitów do swoich poprawek niż ST15i!)


AKTUALIZACJA 2: niektóre dalsze statystyki i liczby, wciąż z tych samych zestawów danych

Podsumowanie ST15i Podsumowanie ST17i Połączone wykresy P.

=> Dane zdecydowanie nie są normalne

=> Obliczyłem również odległość między środkową lokalizacją ST15i a środkową lokalizacją ST17i: wynosi ona 3 metry, tak jakby badanie bawiło się z nami, ponieważ wszystkie zastosowane poprawki miały dokładność 3 metrów lub lepszą. To zdecydowanie potwierdza poniższą sugestię użycia znanego odniesienia w celu wyciągnięcia znaczących wniosków na temat dokładności każdej jednostki GPS!


2
Ostatnio było dużo aktywności plam słonecznych . Biorąc pod uwagę wpływ jonosfery na sygnały GPS , zastanawiam się, czy data, którą wybrałeś do próbkowania, jest tendencyjna. Innymi słowy, być może trzeba by było średnio przez 11 lat - pełny cykl słoneczny .
Kirk Kuykendall

1
Czy byłbyś w pobliżu CORS lub innej lokalizacji ze znanymi dokładnymi współrzędnymi, których możesz użyć do kalibracji? Bez lokalizacji kalibracji, myślę, że można dostać tylko lepszą precyzję , ale nie większą dokładność . Myślę, że twoje wykresy są świetne! Jeśli masz więcej wyników, myślę, że dodanie tutaj byłoby w porządku.
Kirk Kuykendall

3
Aktualizacje są interesujące i cenne. Pamiętaj jednak, że oczywiście odległość od mediany nie będzie normalnie rozkładana! Odległości nie mogą być nawet ujemne. Jeśli dryf jest dwuwymiarowy normalny, wówczas teoria pokazuje, że odległość (do średniej lokalizacji) będzie miała skalowany rozkład chi . W krótkim czasie - podczas którego widoczne są wzorce takie jak tutaj pokazane - zobaczysz artefakty wysokiej dodatniej korelacji czasowej. Histogramy i wykresy prawdopodobieństwa nie mówią nam nic nowego.
whuber

2
Podsumowując, zaczynam rozumieć wszystkie zawiłości dokładności lokalizacji GPS: jest to znacznie bardziej skomplikowane niż początkowo myślałem. Zastanawiam się nad następującymi kwestiami: utrzymanie prawdziwego pozycjonowania na bok i użycie punktu odniesienia, do którego moglibyśmy regularnie wracać podczas przeglądu terenu, czy sensowne byłoby poprawienie, tj. Zwiększenie dokładności (poprzez przybliżenie liniowe?) Badanego lokalizacje i / lub ścieżka zgodnie z dryfem lokalizacji punktu odniesienia? Może powinienem otworzyć na to nowe pytanie, chyba że odpowiedź jest szybka i łatwa, a ktoś ją tutaj opublikuje!
John Doisneau

3
(2) Ze względu na silną korelację czasową spodziewałbym się nienormalności w relatywnie krótkich okresach, John, ale w długich okresach histogramy powinny stać się symetryczne i prawdopodobnie dość zbliżone do normalnych (przy zwykłych towarzyszących wartościach odstających bez wątpienia). Trudne lokalizacje do odbioru sygnałów mogą stanowić wyjątki od tej ogólnej zasady, w zależności od tego, w jaki sposób sygnały są zagrożone. (1) (Re wcześniejszy komentarz) Wygląda na to, że wymyśliłeś korekcję różnicową :-).
whuber

Odpowiedzi:


12

Uśrednianie ma sens tylko wtedy, gdy założymy, że „szum” w pomiarach lokalizacji jest w przybliżeniu symetryczny - równomiernie rozłożony w każdym kierunku. Oznacza to, że dla każdego pomiaru równie prawdopodobne jest, że będzie błędny w jakimkolwiek określonym kierunku.

Prawdopodobnie możliwe jest uzyskanie rozkładu hałasu, który nie jest symetryczny. Na przykład, jeśli twoje urządzenie GPS systematycznie nie docenia odległości do wszystkich satelitów i wykorzystuje więcej satelitów z danego kierunku (być może stoisz na dnie klifu), wówczas wszystkie pomiary są bardziej podatne na błędy kierunek. W tym przypadku uśrednianie poprawi precyzję, ale nie rozwiąże problemu błędu systematycznego.

Nie wiem, czy takie przeszacowanie / niedoszacowanie jest powszechne, ale wątpię, czy byłoby to na tyle znaczące w większości urządzeń, aby zmniejszyć użyteczność uśredniania. Być może może to wprowadzić nieco uprzedzeń, ale wzrost precyzji nadal poprawiłby niezawodność (np. W przypadku geocaching).

Odnośnie twoich 4 pytań:

  1. Zależy, jak bardzo cenisz niezawodność w czasie spędzonym w jednym miejscu, czekając na dodatkowe pomiary.
  2. Ta aplikacja nie wspomina o swojej metodzie, ale prawdopodobnie używa zwykłego uśredniania. Przyjęcie mediany może być bardziej niezawodne, ale bez znajomości rozkładu hałasu trudno byłoby powiedzieć. Zakładam, że hałas gaussowski, w takim przypadku, jeśli dostaniesz wystarczającą liczbę pomiarów, będą one mniej więcej takie same. Lepszą metodą może być użycie wielu urządzeń, wykonanie wielu pomiarów dla każdego urządzenia, a następnie uśrednienie całego zestawu. To usunęłoby specyficzne dla urządzenia błędy, ale oczywiście nie byłoby to szybkie ani łatwe do zrobienia (jeśli twoje urządzenia same się uśredniają, wtedy możesz po prostu uśrednić średnie - ten sam wynik).
  3. Możesz jedynie oszacować precyzję, a nie błąd. Jeśli przyjmujesz szum gaussowski, możesz obliczyć przedział ufności wokół swojej oceny (średniej), na podstawie standardowego błędu. Niektóre jednostki do tego na żywo (na podstawie liczby satelitów) i reprezentują przedział ufności za pomocą koła wokół twojej pozycji.
  4. Prawdopodobnie nie, chyba że znasz konkretne systematyczne błędy, które popełnia Twoje urządzenie. Zobacz 2.

2
+ 1 - dobra analiza i porady. Należy jednak pamiętać, że asymetria hałasu i brak uprzedzeń to różne rzeczy: rozkład hałasu może w zasadzie być silnie asymetryczny i nadal być dokładny. Jeśli chodzi o (4), dostępnych jest więcej podejść, gdy tylko doceni się, że „hałas” ma element, który jest dodatnio skorelowany w czasie (powoli przesuwający się „dryf”). Oznacza to, że dłuższe oczekiwanie między uzyskaniem poprawek może poprawić dokładność średnich. Oznacza to również, że standardowe błędy oszacowane na podstawie krótkiej serii poprawek zwykle optymistycznie przeceniają precyzję.
whuber

1
Dziękuję naught101, to była odpowiedź, której się spodziewałem, i potwierdziła moje myślenie, szczególnie po znalezieniu i przeczytaniu kilku ładnych artykułów na temat precyzji GPS, dostępnych tutaj . Rozumiem, że wszystko jest w rzeczywistości związane z cechami mojego własnego GPS i rzeczy mogą się zmienić wraz z innymi chipami GPS i producentami. Myślę, że postaram się zebrać ogromny zbiór poprawek, jeśli to możliwe, w ciągu kilku dni, aby potwierdzić moje założenia.
John Doisneau

1
@whuber interesujący punkt. Zakładam, że mówisz o dryfowaniu GPS ? Jeśli tak, to czy dzieje się to monotonicznie, czy może w jakiś sposób poprawia się, gdy pojawiają się nowe satelity? Mam na myśli, że jeśli jest monotoniczny, to im dłużej stoisz w jednym miejscu, tym bardziej Twoja średnia będzie dryfować. Jak to rozliczasz?
naught101

1
@JohnDoisneau: eksperyment brzmi jak świetny pomysł. Rozumiem, że ponieważ wszystkie punkty danych są rysowane z tego samego rozkładu (jeśli uwzględnisz punkt Whubera dotyczący dryfu), niepewność w poszczególnych pomiarach będzie podobna do niepewności między pomiarami i możesz mniej więcej zignoruj ​​promień ufności dla każdego pojedynczego pomiaru i po prostu oblicz nowy dla całego zestawu danych.
naught101

1
@naught, to są świetne pytania w ostatnim komentarzu. W skrócie, możemy postrzegać błąd jako proces losowy, ale nie musimy zakładać, że jest on ciągły w czasie: może mieć skoki, jak sugerujesz. GPS jest zaprojektowany w taki sposób, że przez długi czas błąd w nieuporządkowanej lokalizacji wyniesie średnio zero. (Jest to uzasadnienie dla dokonywania długoterminowych odczytów na stałych stacjach w celu pomiaru prędkości dryfu kontynentalnego.) „Dryft” jest dodatnio autokorelowanym składnikiem procesu błędu. Autokorelacja oznacza, że ​​błędy nie uśrednią się natychmiast, ale w końcu powinny.
whuber

-2

Używanie dwóch identycznych urządzeń GPS z jednym w znanej lokalizacji. Czy nie możesz obliczyć błędu dla każdego odczytu GPS i przekazać dane błędu na drugiej jednostce GPS i użyć go do poprawienia danych?


3
Czy to komentarz, czy nowe pytanie? Jeśli tak, zapoznaj się z naszym centrum pomocy, aby uzyskać wskazówki na temat tworzenia postów tutaj. Jeśli ma to być odpowiedź, czy mógłbyś ulepszyć ją, by zawierała pełniejsze wyjaśnienie?
whuber
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.