Właśnie skończyłem czytać tę dyskusję. Twierdzą, że PR AUC jest lepszy niż ROC AUC w niezrównoważonym zbiorze danych.
Na przykład mamy 10 próbek w zestawie danych testowych. 9 próbek jest pozytywnych, a 1 ujemna. Mamy okropny model, który przewiduje wszystko pozytywnie. Będziemy zatem mieć miarę, że TP = 9, FP = 1, TN = 0, FN = 0.
Następnie Precyzja = 0,9, Przywołanie = 1,0. Precyzja i pamięć zwrotna są bardzo wysokie, ale mamy słaby klasyfikator.
Z drugiej strony, TPR = TP / (TP + FN) = 1,0, FPR = FP / (FP + TN) = 1,0. Ponieważ współczynnik FPR jest bardzo wysoki, możemy stwierdzić, że nie jest to dobry klasyfikator.
Najwyraźniej ROC jest lepszy niż PR w przypadku niezrównoważonych zestawów danych. Czy ktoś może wyjaśnić, dlaczego PR jest lepszy?