Pracuję nad oprogramowaniem, które powinno określać lokalizacje świata rzeczywistego (np. Kamery prędkości) na podstawie kilku raportów opartych na GPS . Zgłaszając lokalizację użytkownik będzie jechał samochodem, dlatego raporty będą bardzo niedokładne. Aby rozwiązać ten problem, muszę grupować raporty dotyczące tej samej lokalizacji i obliczać średnią.
Moje pytanie dotyczy sposobu grupowania tych raportów . Czytałem o algorytmach maksymalizacji oczekiwań i k-średnich , ale jak zrozumiałem, musiałbym wcześniej ustalić liczbę rzeczywistych lokalizacji.
Czy istnieją inne algorytmy, które nie potrzebują dokładnej liczby rzeczywistych lokalizacji, ale zamiast tego wykorzystują pewne warunki brzegowe (np. Minimalna odległość)?
Raport zawiera długość , szerokość i dokładność (w metrach). Nie ma nazwy ani niczego innego, co mogłoby być użyte do identyfikacji duplikatów.
Inną przeszkodą może być to, że będzie powszechne, że istnieje tylko jeden raport dla lokalizacji w świecie rzeczywistym. Utrudnia to odróżnienie wartości odstających od dobrych danych.