Nadzorowane uczenie się z niepewnymi danymi?


11

Czy istnieje istniejąca metodologia stosowania nadzorowanego modelu uczenia się do niepewnego zestawu danych? Załóżmy na przykład, że mamy zestaw danych z klasami A i B:

+----------+----------+-------+-----------+
| FeatureA | FeatureB | Label | Certainty |
+----------+----------+-------+-----------+
|        2 |        3 | A     | 50%       |
|        3 |        1 | B     | 80%       |
|        1 |        1 | A     | 100%      |
+----------+----------+-------+-----------+

Jak moglibyśmy szkolić w tym zakresie model uczenia maszynowego? Dzięki.

Odpowiedzi:


11

Jako wartość liczbową, którą przypisujesz swoim danym, myślę, że ta „pewność” z pewnością mogłaby zostać wykorzystana jako waga. Wyższe wyniki „pewności” zwiększają wagę danych na funkcji decyzyjnej, co ma sens.

Wiele nadzorowanych algorytmów uczenia obsługuje wagi, więc musisz tylko znaleźć ważoną wersję tego, którego zamierzasz używać.


2
(+1) A ponieważ zasadniczo wagi będą miały tendencję do działania jako „repliki” punktów, prawdopodobnie każdy algorytm mógłby zostać zakodowany w wersji ważonej w ten sposób, np. W przykładzie OP, przekazać [5,8,10] kopii 3 punkty, odzwierciedlając ich pewność [50,80 100]%. (Nigdy nie powinno to być naprawdę potrzebne, ponieważ można by to zrobić w zasadzie, powinna istnieć odpowiednia ważona wersja algorytmu.)
GeoMatt22

5

Zamiast mieć etykiety A lub B, możesz zastąpić je ciągłymi wartościami pewności - na przykład odpowiada czemuś, co na pewno jest A1ZA , odpowiada czemu masz pewność, że B, a 0,6 odpowiada czemuś „re 40% pewny jest . Następnie przygotuj model, który zamiast przewidywać, że klasa A lub B generuje wynik od 0 do 1 na podstawie tego, jak myślisz, że to jedno lub drugie (i próg tego wyniku na podstawie, czy jego> lub <1/2). Sprawia to, że problem z klasyfikacją staje się problemem regresyjnym (który progujesz, aby wrócić do klasyfikatora).0b0,6ZAZAb01

jakoβ0+β T 1 x(gdziep(A|x)jest pewnością powyżej). Następnie, gdy chcesz przetestować niektóre dane, podłącz je do modelu i wydrukuj etykietęlogp(ZA|x)p(b|x)=logp(ZA|x)1-P.(ZA|x)β0+β1T.xp(ZA|x)ZAβ0+β1T.x>0b


Więc jeśli miałeś problem z klasyfikacją wielu klas, możesz ustawić swoje cele jako wektory o długości równej liczbie klas?
hyperdo

Liczba klas -1, przy założeniu, że suma pewności wynosi 100%; przykład jest podobny do regresji logistycznej. Wielu klasyfikatorów wytwarza wyniki (np. Oszacowania p (dane klasy | dane) w ramach niektórych modeli). Cała ta odpowiedź sugeruje, że zamiast bezpośredniego przewidywania klas, patrz pewności jako wyniki i zamiast tego przewiduj. Następnie zrób coś z wynikami.
Batman
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.