Dlaczego wynik beta określa tak beta?


10

To jest wynik F beta:

Fβ=(1+β2)precisionrecall(β2precision)+recall

Artykuł w Wikipedii stwierdza, że .Fβ "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision"

Nie wpadłem na pomysł. Po co definiować ten sposób? Czy mogę zdefiniować ten sposób:βFβ

Fβ=(1+β)precisionrecall(βprecision)+recall

I jak pokazać β times as much importance?


2
Sprawdź nową odpowiedź poniżej, która zawiera rachunek różniczkowy, który odnosi się do „dlaczego Beta jest kwadratem, a nie Beta”.
javadba,

Odpowiedzi:


19

Niech będzie wagą w pierwszej podanej przez ciebie definicji, a wagą w drugiej, dwie definicje są równoważne, gdy ustawisz , więc te dwie definicje reprezentują jedynie różnice notacyjne w definicja wyniku . Widziałem, jak zdefiniowano zarówno pierwszy sposób (np. Na stronie wikipedia ), jak i drugi (np. Tutaj ).˜ β ˜ β = β 2 F βββ~β~=β2Fβ

środka uzyskuje się biorąc średnią harmoniczną precyzji i wycofywania, czyli odwrotność średnią odwrotności precyzji i odwrotność przywołania:F1

F1=1121precision+121recall=2precisionrecallprecision+recall

Zamiast używać wag w mianowniku, które są równe i sumują się do 1 ( dla przywołania i dla precyzji), zamiast tego możemy przypisać wagi, które wciąż sumują się do 1, ale dla którego waga przy odwołaniu jest razy większa niż waga przy precyzji ( przypadku wycofania i przypadku precyzji). To daje twoją drugą definicję wyniku : 112 ββ12β 1ββ+1 Fβ1β+1Fβ

Fβ=11β+11precision+ββ+11recall=(1+β)precisionrecallβprecision+recall

Ponownie, gdybyśmy użyli zamiast tutaj, doszlibyśmy do twojej pierwszej definicji, więc różnice między dwiema definicjami są po prostu notacyjne. ββ2β


1
dlaczego pomnożyli z terminem dokładności zamiast terminu wycofania? β
Anwarvic

1
Rachunek różniczkowy, który odnosi się do „dlaczego Beta do kwadratu, a nie Beta” znajduje się w nowszej odpowiedzi poniżej.
javadba,

@Anwarvic Pomnożyli z odwrotnym przywołaniem. Po uwzględnieniu out i rozszerzenie z jest termin lewo( 1 + β )β(1+β)precyzję β precisionrecallβprecision
user2740

6

Powodem zdefiniowania wyniku F-beta za pomocą jest właśnie podany przez Ciebie cytat (tzn. Chcesz dołączyć tyle razy, ile trzeba zapamiętać, co precyzja), biorąc pod uwagę konkretną definicję tego, co to znaczy dołączyć razy ważniejsze jest przywołanie niż precyzja.β2ββ

Konkretny sposób zdefiniowania względnego znaczenia dwóch wskaźników, które prowadzą do sformułowania można znaleźć w Information Retrieval (Van Rijsbergen, 1979):β2

Definicja: Względne znaczenie, jakie użytkownik przypisuje precyzji i przywołaniu, to stosunek przy którym , gdzie jest miarą skuteczności opartą na precyzji i przywołaniu.P/RE/R=E/PE=E(P,R)

Motywacją do tego jest:

Najprostszym znanym mi sposobem kwantyfikacji jest określenie stosunku przy którym użytkownik jest skłonny wymienić dokładność przyrostu w celu uzyskania równej straty przy wycofywaniu.P/R

Można zobaczyć, że to prowadzi do sformułowanie można rozpocząć od ogólnego wzoru na ważonej średniej harmonicznej i i obliczenie ich pochodnych cząstkowych w odniesieniu do i . Źródło cytowane niej korzysta (dla „miary skuteczności”), który jest tylko i wyjaśnienie jest odpowiednikiem tego, czy uważamy, lub .β2PRPRE1FEF

F=1(αP+1αR)

F/P=α(αP+1αR)2P2

F/R=1α(αP+1αR)2R2

Teraz ustawienie pochodne równe sobie miejsca ograniczenie relacji między , a stosunek . Biorąc pod uwagę, że chcemy przywrócić razy większą wagę do zapamiętania niż precyzja, rozważymy stosunek 1 :αP/RβR/P

F/P=F/RαP2=1αR2RP=1αα

Zdefiniowanie jako tego stosunku i przestawienie dla daje wagi w kategoriach :βαβ2

β=1ααβ2=1ααβ2+1=1αα=1β2+1

1α=11β2+1β2β2+1

Otrzymujemy:

F=1(1β2+11P+β2β2+11R)

Które można zmienić, aby uzyskać formularz w pytaniu.

Zatem, biorąc pod uwagę cytowaną definicję, jeśli chcesz przywiązywać razy większą wagę do przywołania niż precyzja, należy użyć sformułowania . Ta interpretacja nie obowiązuje, jeśli używa się . Analogiczna, mniej intuicyjna interpretacja w przypadku, gdy po prostu używamy polegałaby na tym, że chcemy przywiązywać razy większą wagę do przywołania niż precyzja.ββ2βββ

Możesz zdefiniować wynik, jak sugerujesz, jednak powinieneś być świadomy, że w tym przypadku omawiana interpretacja nie ma już miejsca lub sugerujesz inną definicję do kwantyfikacji kompromisu między precyzją a wycofaniem.

Przypisy:

  1. P/R jest wykorzystywany w wyszukiwaniu informacji, ale wydaje się, że jest to literówka, patrz The Truth of F-Measure (Saski, 2007).

Bibliografia:

  1. CJ Van Rijsbergen. 1979. Information Retrieval (2nd ed.), S. 133–134
  2. Y. Sasaki. 2007. „The Truth of F-Measure”, Nauczanie, Materiały szkoleniowe

1
To powinna być zaakceptowana odpowiedź.
javadba,

3

Aby szybko coś wskazać.

Oznacza to, że wraz ze wzrostem wartości beta bardziej doceniasz precyzję.

Właściwie uważam, że jest odwrotnie - ponieważ wyższy jest lepszy w punktacji F-β, chcesz, aby mianownik był mały. Dlatego jeśli zmniejszysz β, wówczas model będzie mniej karany za dobrą ocenę dokładności. Jeśli zwiększysz β, wynik F-β jest karany bardziej, gdy precyzja jest wysoka.

Jeśli chcesz zważyć ocenę F-β w taki sposób, aby oceniała precyzję, β powinna wynosić 0 <β <1, gdzie β-> 0 tylko precyzję (licznik staje się bardzo mały, a jedyną rzeczą w mianowniku jest przywołanie, więc wynik F-β zmniejsza się wraz ze wzrostem przywołania).

http://scikit-learn.org/stable/modules/generated/sklearn.metrics.fbeta_score.html


0

Powodem mnożenia β ^ 2 z precyzją jest właśnie sposób definiowania F-Scores. Oznacza to, że wraz ze wzrostem wartości beta bardziej doceniasz precyzję. Jeśli chciałbyś pomnożyć to przez przywołanie, które również działałoby, oznaczałoby to po prostu, że wraz ze wzrostem wartości beta zwiększasz wartość przywołania.


0

Wartość beta większa niż 1 oznacza, że ​​chcemy, aby nasz model zwracał większą uwagę na Przywracanie modelu w porównaniu do Precyzji. Z drugiej strony wartość mniejsza niż 1 kładzie większy nacisk na precyzję.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.