Pytania otagowane jako precision-recall

P&R to sposób pomiaru trafności zbioru pobranych instancji. Precyzja to procent poprawnych instancji spośród wszystkich pobranych instancji. Trafność to odsetek pobranych prawdziwych instancji. Średnia harmoniczna P&R to wynik F1. P&R są używane w eksploracji danych do oceny klasyfikatorów.

3
Sugestie dotyczące uczenia się z uwzględnieniem kosztów w warunkach wysoce niezrównoważonych
Mam zestaw danych z kilkoma milionami wierszy i ~ 100 kolumnami. Chciałbym wykryć około 1% przykładów w zestawie danych, które należą do wspólnej klasy. Mam ograniczenie minimalnej precyzji, ale z powodu bardzo asymetrycznego kosztu nie jestem zbytnio zainteresowany żadnym konkretnym wycofaniem (o ile nie mam 10 pozytywnych wyników!) Jakie są …

2
Rosnąca liczba funkcji powoduje spadek dokładności, ale wzrost wstępnego / wycofania
Jestem nowy w uczeniu maszynowym. W tej chwili używam klasyfikatora Naive Bayes (NB) do klasyfikowania małych tekstów w 3 klasach jako pozytywne, negatywne lub neutralne, używając NLTK i python. Po przeprowadzeniu niektórych testów z zestawem danych złożonym z 300 000 instancji (16 924 pozytywów 7 477 negatywów i 275 599 …

2
Co to jest „linia bazowa” w precyzyjnej krzywej przywołania
Próbuję zrozumieć krzywą przywołania precyzji, rozumiem, na czym polega precyzja i przywołanie, ale nie rozumiem wartości „podstawowej”. Czytałem ten link https://classeval.wordpress.com/introduction/introduction-to-the-precision-recall-plot/ i nie rozumiem części podstawowej, jak pokazano w „Krzywej precyzji-przywołania doskonałego klasyfikatora”, co to robi? i jak to obliczyć? Czy to tylko losowa linia bazowa, którą wybraliśmy? Na przykład …


4
Obliczanie AUPR w R [zamknięte]
Zamknięte. To pytanie jest nie na temat . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby było tematem dotyczącym weryfikacji krzyżowej. Zamknięte 8 miesięcy temu . Łatwo jest znaleźć obszar obliczania pakietu pod ROC, ale czy istnieje pakiet, który oblicza obszar pod krzywą dokładnego przywołania?



1
Jak zmniejszyć liczbę fałszywych trafień?
Próbuję rozwiązać zadanie zwane wykrywaniem pieszych i trenuję binarny clasifer na dwóch kategoriach pozytywnych - ludzie, negatywne - tło. Mam zestaw danych: liczba wyników dodatnich = 3752 liczba ujemna = 3800 Używam train \ test split 80 \ 20% i RandomForestClassifier z scikit-learn z parametrami: RandomForestClassifier(n_estimators=100, max_depth=50, n_jobs= -1) Otrzymuję …

2
Jak porównać dwa algorytmy rankingu?
Chcę porównać dwa algorytmy rankingu. W tych algorytmach klient określa pewne warunki w swoim wyszukiwaniu. Zgodnie z wymaganiami klienta, algorytm ten powinien przypisać ocenę każdemu elementowi w bazie danych i pobrać elementy o najwyższym wyniku. Na tej stronie przeczytałem różne tematy związane z moim pytaniem i przeszukałem sieć. Według moich …

1
Jak utworzyć krzywą Precision-Recall, gdy mam tylko jedną wartość PR?
Mam zadanie eksploracji danych, w którym tworzę system wyszukiwania obrazów oparty na treści. Mam 20 zdjęć 5 zwierząt. Łącznie więc 100 zdjęć. Mój system zwraca 10 najbardziej odpowiednich obrazów do obrazu wejściowego. Teraz muszę ocenić wydajność mojego systemu za pomocą krzywej Precision-Recall. Nie rozumiem jednak koncepcji krzywej Precyzja-Przywołanie. Powiedzmy, że …




1
Uśrednianie precyzji i przywoływanie podczas korzystania z weryfikacji krzyżowej
Przeprowadziłem klasyfikację przy użyciu wielu klasyfikatorów dla danych oznaczonych 2 klasami i użyłem 5-krotnej walidacji krzyżowej. Dla każdej zakładki obliczyłem tp, tn, fp i fn. Następnie obliczyłem dokładność, precyzję, wycofanie i wynik F dla każdego testu. Moje pytanie brzmi: kiedy chcę uśrednić wyniki, wziąłem średnią dokładności, ale czy mogę również …


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.