Dlaczego wycofywanie nie bierze pod uwagę prawdziwych negatywów? Czy w eksperymentach, w których prawdziwe negatywy są tak samo ważne jak prawdziwe pozytywy, czy ich porównywalna metryka bierze to pod uwagę?
Dlaczego wycofywanie nie bierze pod uwagę prawdziwych negatywów? Czy w eksperymentach, w których prawdziwe negatywy są tak samo ważne jak prawdziwe pozytywy, czy ich porównywalna metryka bierze to pod uwagę?
Odpowiedzi:
Przypomnienie (w połączeniu z precyzją) jest ogólnie stosowane w obszarach, w których przede wszystkim interesuje się znalezieniem pozytywów. Przykładem takiego obszaru jest np. Performance Marketing lub (jak już sugeruje link ch'ls) obszar wyszukiwania informacji.
Więc:
Jeśli interesuje Cię przede wszystkim znajdowanie negatywów, najlepszym rozwiązaniem jest „True Negative Rate” (jak już sugeruje chl). Ale nie zapomnij spojrzeć na „precyzję skupienia się na negatywach” -metryczną (tj. , ponieważ w przeciwnym razie „True Negative Rate” można zoptymalizować poprzez ustawienie prognozy na „Negative” dla wszystkich punktów danych).
Jeśli jesteś zainteresowany optymalizacją przywołania zarówno dla negatywów, jak i pozytywów, powinieneś spojrzeć na „Dokładność” (zobacz ponownie link chl). Ale uważaj na pochylenie klasy (tzn. Masz o wiele więcej pozytywów niż negatywów lub odwrotnie ... w tym przypadku można „zoptymalizować” dokładność, ustawiając prognozę na główną klasę dla wszystkich punktów danych).